Wie künstliche Intelligenz Vertrauen und Verantwortung in der Arbeitswelt verschiebt
Eine aktuelle Studie zeigt, wie stark KI-Chatbots wie ChatGPT bereits als erste Anlaufstelle für berufliche und private Fragen genutzt werden – und welche Chancen, Effizienzgewinne und Risiken dieser Wandel mit sich bringt.
Studie des PINKTUM Institute zeigt: KI-Chatbots werden im Arbeitsalltag immer häufiger als erste Anlaufstelle genutzt – zugleich wachsen Effizienz, Vertrauen und Risiken im Umgang mit Künstlicher Intelligenz.
Foto: denisismagilov/Smarterpix
Künstliche Intelligenz entwickelt sich zunehmend zum wichtigsten Ansprechpartner für berufliche und private Fragen. Das belegt eine repräsentative Studie des Pinktum Institute, für die 1550 Erwerbstätige in Deutschland befragt wurden. Bereits jeder vierte Beschäftigte (26 %) nutzt bevorzugt KI-Chatbots wie ChatGPT oder Gemini – unabhängig vom Anwendungsbereich.
Besonders bei Themen wie Bewerbungen, Gehaltsverhandlungen, fachlichen Fragestellungen oder kreativen Aufgaben greifen sogar über 40 % der Befragten in erster Linie auf einen Chatbot zurück. Ein weiterer bemerkenswerter Aspekt: Viele Nutzer haben das Gefühl, von Künstlicher Intelligenz besser verstanden zu werden als von Menschen. Insgesamt trifft das auf 29 % der Befragten zu.
Vor allem jüngere Arbeitnehmer zeigen eine hohe Affinität zur KI: In der Altersgruppe der 25- bis 29-Jährigen empfindet mehr als jeder Zweite (56 %), dass ein Chatbot ihre Anliegen zumindest teilweise besser versteht.
Vertrauen in KI verändert die Arbeitswelt
Ein grundlegendes Prinzip der modernen Arbeitswelt befindet sich im Wandel: Vertrauen entsteht nicht länger ausschließlich im zwischenmenschlichen Austausch, sondern wird zunehmend auch in technologische Systeme verlagert.
Treiber dieser Entwicklung sind vor allem spürbare Effizienzgewinne. So berichten 43 % der Befragten, dass sie mit KI-Chatbots ihre Produktivität steigern und mehr Aufgaben bewältigen können. 48 % sind überzeugt, durch den Einsatz von Künstlicher Intelligenz bessere Ergebnisse zu erzielen, während 46 % eine deutliche Entlastung im Arbeitsalltag wahrnehmen.
Schattenseiten der KI-Effizienz
Neben den Vorteilen zeigt die Studie auch eine kritische Entwicklung: 43 % der Befragten nutzen KI-Chatbots bewusst, um sich nicht tiefer mit bestimmten Themen auseinandersetzen zu müssen. Das führt zwar zu schnelleren Ergebnissen, geht jedoch häufig zulasten eines echten Verständnisses für Inhalte und Zusammenhänge.
„KI macht uns produktiver, aber sie verführt uns auch dazu, weniger selbst zu denken. Wenn Bequemlichkeit zur Leitlogik wird und Vertrauen sich von Menschen auf Systeme verlagert, entsteht ein strukturelles Risiko für Kompetenz, Verantwortung und Führung.“, kommentiert Joachim Pawlik, CEO PINKTUM die Ergebnisse der Untersuchung. „KI verändert deshalb nicht nur Arbeit, sondern auch den Umgang mit Verantwortung. Führung muss aktiv gegensteuern, indem sie Reflexion einfordert und die Urteilskraft von Mitarbeitenden stärkt.“
Lesen Sie auch: KI-Re-Skilling für Frauen: Erfolgsfaktor für Unternehmen durch Weiterbildung und Führung
KI als kognitive Abkürzung und Risiko für die Privatsphäre
Künstliche Intelligenz dient damit längst nicht mehr nur der Verbesserung von Ergebnissen, sondern wird zunehmend auch als mentale Abkürzung eingesetzt. Für den damit verbundenen Effizienzgewinn sind viele Nutzer bereit, Abstriche zu machen: 46 % akzeptieren potenzielle Risiken für ihre Privatsphäre, um Zeit zu sparen.
Defizite beim Erkennen von KI-Inhalten und Cyberrisiken
Der Cybersicherheitsmonitor zeigt deutliche Wissenslücken im Umgang mit KI-generierten Inhalten und potenziellen Gefahren. Rund ein Drittel der Befragten (32 %) hat bislang keine der gängigen Methoden angewendet, um KI-Inhalte zu erkennen.
Ein Blick auf konkrete Maßnahmen macht die Unsicherheiten deutlich:
- 40 % haben zumindest einmal hinterfragt, ob eine dargestellte Szene realistisch ist
- Nur 28 % achten gezielt auf Unstimmigkeiten wie fehlerhafte Schatten oder unnatürliche Gliedmaßen
- Lediglich 19 % überprüfen die Vertrauenswürdigkeit der Quelle
- Auch beim Verständnis möglicher Betrugsszenarien zeigt sich ein ähnliches Bild:
- Nur 38 % halten es für möglich, dass Cyberkriminelle KI-Systeme manipulieren, um an sensible Daten zu gelangen
- Gerade einmal 40 % ziehen in Betracht, dass versteckte Anweisungen in Dokumenten KI-Systeme beeinflussen können
Dabei sind beide Szenarien technisch realisierbar – was den Bedarf an Aufklärung und Medienkompetenz im Umgang mit Künstlicher Intelligenz deutlich unterstreicht.
Lesen Sie auch: KI und die Arbeitswelt: Studie bestätigt Angst vor KI-Jobverlust
Ein Beitrag von: