Wenn ChatGPT über Kündigung und Gehaltserhöhung entscheidet
Kündigungen per Chatbot? In den USA lassen immer mehr Führungskräfte KI über Karrieren entscheiden – teils ohne menschliches Mitspracherecht und trotz fragwürdiger Datenlage, wie eine neue Studie zeigt.
Laut Studie nutzen viele Führungskräfte ChatGPT & Co. für sensible Personalfragen.
Foto: PantherMedia / supatman
Laut einer aktuellen Umfrage nutzen 66 % der befragten Manager künstliche Intelligenz, um Entscheidungen über Entlassungen zu treffen – oft mit Chatbots wie ChatGPT. Noch brisanter: 64 % verlassen sich auch bei Kündigungen auf KI-Ratschläge.
Die Erhebung stammt von ResumeBuilder.com, einer auf HR-Themen spezialisierten Plattform (in den USA), und basiert auf den Antworten von 1342 Führungskräften. Insgesamt 60 % gaben zu, ein sogenanntes Large Language Model (LLM) bei bedeutenden Personalentscheidungen einzubeziehen.
Dabei bleibt es nicht bei Kündigungen: 78 % konsultieren KI, wenn es um Gehaltserhöhungen geht, 77 % setzen sie für Beförderungsentscheidungen ein.
Obwohl KI offiziell kaum Jobs ersetzt, wird sie zunehmend als Instrument genutzt, um Personal abzubauen, Aufgaben auszulagern oder Druck auf Mitarbeitende auszuüben. Immer öfter dient sie nicht nur als Ausrede – sondern als Entscheider.
Noch verstörender: Fast jeder fünfte Manager überlässt der KI allein die Entscheidung
Laut der Umfrage lässt fast jeder fünfte Manager regelmäßig ein sogenanntes Large Language Model (LLM) ohne menschliches Zutun die endgültige Entscheidung treffen.
Mehr als die Hälfte der befragten Führungskräfte verwendet ChatGPT. Microsofts Copilot und Googles Gemini landen auf Platz zwei und drei.
Die Zahlen zeichnen ein düsteres Bild – vor allem angesichts eines bekannten Problems von LLMs: Schmeichelei. Die Modelle neigen dazu, ihren Nutzerinnenund Nutzern nach dem Mund zu reden und deren vorgefasste Meinungen zu bestätigen. Besonders ChatGPT ist für dieses sogenannte Sycophancy-Verhalten berüchtigt. OpenAI musste das Problem sogar mit einem speziellen Update angehen.
Kritisch wird es, wenn ChatGPT allein über Entscheidungen trifft, die ganze Existenzen betreffen. Etwa wenn ein Manager eigentlich nur einen Vorwand sucht, um jemanden zu entlassen – und dann die KI befragt, die seine Voreingenommenheit bestätigt und ihm so die Verantwortung abnimmt.
Interessant ist in diesem Zusammenhang, was genau die Manager bei ChatGPT oder anderen KI-Modellen eingeben, um solche Entscheidungen treffen zu lassen. Immerhin geht es dabei auch um sensible Daten: Sie können doch nicht einfach aktuelle Gehälter oder personenbezogene Informationen der Mitarbeitenden an die KI weitergeben – allein schon aus Datenschutzgründen. Dennoch bleibt offen, welche konkreten Eingaben gemacht werden. Angaben dazu fehlen in der Umfrage völlig. Oder hatten sie keine Schulung dazu?
KI-Weiterbildungen sind wichtig
Damit sensible Daten nicht bei der KI landen, sind spezielle Schulungen nötig. In Deutschland haben die meisten Beschäftigten bisher keine Schulung zum Umgang mit künstlicher Intelligenz (KI) erhalten. Laut einer Umfrage des Digitalverbands Bitkom wurde nur rund ein Fünftel der Berufstätigen im Job bereits im Einsatz von KI weitergebildet. Ganze 70 % gaben an, überhaupt kein Schulungsangebot erhalten zu haben. Bei weiteren 6 % gebe es zwar entsprechende Angebote – sie wurden aber bisher nicht genutzt.
Für die repräsentative Studie wurden 1005 Menschen ab 16 Jahren in Deutschland befragt.
Das ist nicht nur eine verpasste Chance, sondern könnte auch ein rechtliches Problem darstellen: Die neue KI-Verordnung der EU (AI Act) verpflichtet Unternehmen, die KI nutzen, dazu, ihre Mitarbeitenden ausreichend zu schulen. Dazu zählen nicht nur Festangestellte, sondern auch Freelancer, Zeitarbeitskräfte und externe Dienstleister. Der AI Act gilt seit Februar 2025.
„Wichtig ist, dass man die Tools richtig bedienen kann und auch über die Möglichkeiten und Grenzen der Technologie sowie über Datenschutz und Datensicherheit Bescheid weiß“, kommentiert Bitkom-Präsident Ralf Wintergerst.
Ein Beitrag von: