Warum wir „weibliche“ KI ausnutzen und „männlicher“ misstrauen
Geschlechterrollen sind tief in unseren sozialen Strukturen verankert. Wir übertragen diese sogar unbewusst auf künstliche Intelligenz. Für Unternehmen, Führungskräfte und Personalabteilungen ist das mehr als eine Randnotiz: Es betrifft die Art, wie Teams KI nutzen, wie Mitarbeitende Entscheidungen treffen und wie digitale Systeme Arbeitsprozesse beeinflussen.
Studie zeigt: Menschen projizieren Geschlechterrollen auf KI – mit Folgen für Führung, HR und Zusammenarbeit.
Foto: Smarterpix/phonlamai
In der im Fachjournal „iScience“ veröffentlichten Untersuchung der Ludwig-Maximilians-Universität München (LMU) und des Trinity College Dublin spielten über 400 Teilnehmende wiederholt Varianten des Gefangenendilemmas. Dabei traten sie teils gegen menschliche, teils gegen KI-basierte Spielpartner an, die jeweils als männlich, weiblich, nicht-binär oder neutral gekennzeichnet waren.
Das Gefangenendilemma ist ein Modell der Spieltheorie, bei dem zwei Spieler gleichzeitig entscheiden müssen, ob sie kooperieren oder den anderen ausnutzen. Kooperation bringt beiden ein gutes Ergebnis, Ausnutzung dem Einzelnen riesige Vorteile – führt aber, wenn beide misstrauisch handeln, zu einem schlechteren Gesamtausgang.
Objektivität als Kernkompetenz
Eine zentrale Fachkompetenz von Führungskräften besteht darin, objektiv zu urteilen, informierte Entscheidungen zu treffen und persönliche wie strukturelle Biases zu erkennen. Manche Führungskräfte schaffen dies mehr, andere weniger gut.
Die Ergebnisse der Studie zeigen jedoch, wir projizieren geschlechtsspezifischen Bias nicht nur auf unsere Mitmenschen, sondern genauso auf KI-Systeme. „Weiblich“ gekennzeichnete KI wurde ähnlich stark ausgenutzt wie menschliche Frauen – teilweise sogar stärker. „Männlich“ markierter KI wurde in vergleichbarer Weise misstraut.
Damit ist erstmals empirisch belegt, dass sich Geschlechterbias unverändert auf den Mensch-Maschine-Kontext überträgt.
Dadurch entsteht ein doppeltes Problem: Führungskräfte verlassen sich auf Technologien, die durch menschliche Projektionen verzerrt wahrgenommen werden, und übersehen zugleich, dass diese Wahrnehmungen das eigene Entscheidungsverhalten beeinflussen. Das kann in der Praxis zu Fehleinschätzungen, unfairen Bewertungen und einer verzerrten Zusammenarbeit zwischen Mitarbeitenden und digitalen Assistenzsystemen führen.
Bias macht nicht vor Maschinen halt
KI unterstützt heute unter anderen beim Recruiting, interne Kommunikation, Weiterbildung und Kundenservice. Wenn Mitarbeitende jedoch unterschiedlich kooperieren, nur weil ein System „weiblich“ oder „männlich“ erscheint, entstehen reale Verzerrungen im Arbeitsalltag.
Ein digitaler Assistent, der als „weiblich“ wahrgenommen wird, wird vielleicht häufiger überlastet oder weniger ernst genommen. Ein „männlich“ wirkender Chatbot möglicherweise misstrauischer behandelt. Beides beeinflusst Zusammenarbeit, Effizienz und Entscheidungskultur.
Bias-Reflexion war lange ein rein zwischenmenschliches Thema. Die Studie zeigt jedoch: Professionelles Verhalten gegenüber KI wird zur sozialen Kompetenz.
Lesen Sie dazu auch: Für die KI sind Ingenieure immer noch Männer
KI-Design wird zur Führungsaufgabe
Unternehmen müssen künftig deutlich bewusster entscheiden, wie interaktive KI gestaltet wird. Von der Frage, ob eine Stimme weiblich, männlich oder neutral klingen soll, über die Wahl eines kulturell oder geschlechtlich konnotierten Namens bis hin zur Entscheidung, ob ein Avatar menschenähnlich oder abstrakt wirkt. All diese Faktoren prägen, wie Mitarbeitende Vertrauen aufbauen, wie sie mit einem System kooperieren – oder es ausnutzen – und wie stark sich unbewusste Erwartungen und Rollenbilder in die tägliche Interaktion einschreiben.
Dr. Jurgis Karpus, Mitautor der Studie, verweist dabei auf ein zentrales Spannungsfeld: „KI-Agenten mit menschenähnlichen Eigenschaften auszustatten, kann die Zusammenarbeit zwischen Menschen und KI fördern, birgt jedoch auch die Gefahr, dass unerwünschte bestehende geschlechtsspezifische Vorurteile aus menschlichen Interaktionen auf Künstliche Intelligenz übertragen und verstärkt werden.“
Warum geschlechtsneutrale KI entscheidend ist
Da KI in immer mehr Unternehmensbereichen eingesetzt wird, gewinnen Fragen der geschlechtsneutralen Gestaltung zunehmend an Bedeutung. Neutrale Stimmen, Namen und Avatare können helfen, unbewusste Projektionen zu reduzieren und sicherzustellen, dass Mitarbeitende nicht aufgrund vermeintlicher Geschlechtsmerkmale unterschiedlich mit Systemen interagieren.
Ebenso wichtig ist es, Beschäftigte durch KI-Training für die Entstehung und Wirkung von Bias zu sensibilisieren und Führungskräfte darin zu schulen, welche sozialen Folgen Designentscheidungen haben können.
Die Forschenden betonen, dass Unternehmen nur dann vertrauenswürdige und faire KI-Lösungen entwickeln, wenn verschiedene Bereiche – von HR über UX-Design bis hin zu Recht und IT – gemeinsam Standards für verantwortungsvolles KI-Design definieren.
Auch der Blick auf aktuelle regulatorische Anforderungen wie den EU AI Act sei entscheidend, um Diskriminierungsrisiken frühzeitig zu erkennen und zu vermeiden.
Ein Beitrag von: