Wie KI das Vertrauen im Job gefährden kann
ChatGPT, Gemini, Copilot & Co. sind inzwischen in vielen Berufen ähnlich selbstverständliche Hilfsmittel wie E-Mail-Programme, Textverarbeitung oder Bildbearbeitung. Rasch ist eine E-Mail formuliert oder ein kurzer Text erstellt. Doch jetzt stellt sich heraus: KI belastet das Vertrauensverhältnis.
Nicht alle Mitarbeitenden sind begeistert, wenn Vorgesetzte KI nutzen.
Foto: smarterpix / ktsdesign
Die Nutzung von künstlicher Intelligenz am Arbeitsplatz wächst rasant: Mehr als drei Viertel aller Erwerbstätigen greifen regelmäßig auf Anwendungen wie ChatGPT, Gemini oder Copilot zurück. Sie benutzen es als Hilfsmittel, um Mitteilungen zu verfassen oder zu bearbeiten. Das Ziel erscheint klar: Durch den Einsatz generativer KI sollen Schreiben vereinfacht und Texte effizienter erstellt werden.
Ein Forscherteam der University of Florida stellte sich nun die Frage, wie sich die Nutzung von KI auf die Kommunikation zwischen Vorgesetzten und Mitarbeitenden auswirkt. Ihre Erkenntnisse stellen nun infrage, ob der Alltagseinsatz künstlicher Intelligenz tatsächlich das Vertrauen und die Authentizität innerhalb von Unternehmen fördert.
Professioneller Auftritt vs. Vertrauensverlust durch künstliche Intelligenz
1.100 Beschäftigte haben sich an einer Umfrage beteiligt, die Widersprüche ans Licht bringt. Obwohl KI-Tools laut Studie dazu beitragen, dass E-Mails von Führungskräften strukturierter und professioneller erscheinen, kann deren häufige Verwendung das Vertrauensverhältnis deutlich schwächen. „Wir beobachten eine Spannung zwischen der Wahrnehmung der Nachrichtenqualität und der Wahrnehmung des Absenders“, sagt Anthony Coman vom Warrington College of Business an der University of Florida und Co-Autor der Studie. Die Nutzung künstlicher Intelligenz steigere zwar den Eindruck von Professionalität, stelle die Glaubwürdigkeit der Führungskraft bei intensiver Anwendung aber in Frage. Das hänge vor allem aber auch mit dem Niveau der Sprachmodelle und mit deren Ergebnissen zusammen.
Gemeinsam mit Peter Cardon von der University of Southern California prüften die Wissenschaftlerinnen und Wissenschaftler unterschiedliche Stufen der KI-Unterstützung beim Verfassen von E-Mails. Dazu erhielten die befragten Fachkräfte jeweils verschiedene Versionen einer Textnachricht, die mit geringem, mittlerem und hohem Einsatz künstlicher Intelligenz gestaltet waren. Bewertet wurde nicht nur der eigentliche Inhalt, sondern auch der Eindruck, den der Absender hinterließ. Dabei zeigte sich: Insbesondere, wenn Führungskräfte stark auf KI setzten, wurden sie von Mitarbeitenden kritischer beurteilt. Als Beispiel setzten die Forschenden eine Glückwunschnachricht ein.
Wahrnehmungslücke bei KI-generierter Kommunikation
Trotz des insgesamt positiven Feedbacks hinsichtlich Effizienz und Professionalität, gab es signifikante Unterschiede, wie Nachrichten bewertet wurden – abhängig davon, wer als Absender auftrat. Die Studie deckte eine „Wahrnehmungslücke“ auf: Nachrichten, von Führungskräften mit viel KI-Hilfe verfasst, wurden weniger positiv wahrgenommen als solche von Mitarbeitenden. „Fachleute bewerten ihren eigenen KI-Einsatz meist neutral, reagieren aber skeptischer, wenn Vorgesetzte auf ähnliche Weise vorgehen“, sagt Coman. Während überschaubare KI-Nutzung, etwa zur Korrektur von Grammatik oder als Lektorat, allgemein akzeptiert wurde, löste ein höherer Grad an technologischer Unterstützung schnell Misstrauen oder Skepsis aus.
Diese Kluft war vor allem bei beziehungsorientierten Mitteilungen sichtbar: Glückwünsche, Lob oder motivierende Botschaften, die mit künstlicher Intelligenz erstellt wurden, ließen Anerkennung und Wahrhaftigkeit vermissen. Kann die digitale Unterstützung also tatsächlich Empathie und Wertschätzung vermitteln – oder geht dabei der menschliche Faktor verloren?
Künstliche Intelligenz – ein Risiko für Integrität und Führungskräfte?
Die größten Einbußen zeigten sich beim Vertrauen in die Führungskraft selbst. Wie die Untersuchung offenlegt, bewerteten nur noch 40 bis 52 Prozent der Angestellten die Vorgesetzten, die stark auf künstliche Intelligenz beim Schreiben setzten, als glaubwürdig. Zum Vergleich: Bei geringem KI-Einsatz lag dieser Anteil bei 83 Prozent. Auch der Eindruck von Professionalität erlitt Einbußen, sank doch die positive Wahrnehmung bei hohem KI-Anteil auf 69 bis 73 Prozent, verglichen mit 95 Prozent bei geringer KI-Nutzung. Der Rückgang lässt sich auf Zweifel an Urheberschaft, Sorgfalt und Kompetenz zurückführen, wodurch Mitarbeitende die Führungsqualitäten von Vorgesetzten in Frage stellen.
Viele Mitarbeitende nehmen KI-generierte Inhalte wahr und deuten ihren Einsatz als Zeichen von Nachlässigkeit oder Desinteresse. Sobald Vorgesetzte massenhaft auf maschinell erstellte Glückwünsche oder Feedback setzen, droht nicht nur die Botschaft an Authentizität zu verlieren, sondern der Führungsstil selbst wird hinterfragt. Wie Coman ausdrücklich anmerkt: „In einigen Fällen kann KI-gestütztes Schreiben die Wahrnehmung von Eigenschaften untergraben, die mit der Vertrauenswürdigkeit eines Vorgesetzten zusammenhängen.“ Die Forschenden raten deshalb, künstliche Intelligenz mit Fingerspitzengefühl einzusetzen. Insbesondere den Grund der Nachricht, das Ausmaß der technologischen Unterstützung sowie die Beziehungsnähe sollten Führungskräfte bei jeder Nachricht genau abwägen. Während E-Mails zu organisatorischen Fragen, Terminabsprachen oder sachlichen Ankündigungen durchaus von KI profitieren können, sind Botschaften, die auf Empathie, Lob oder individuelles Feedback abzielen, besser persönlich formuliert. Entscheidend ist der Kontext, denn gerade bei sensiblen Themen zählt nicht nur, was gesagt, sondern vor allem, wie es gesagt wird.
Ein Beitrag von: