Digitaler Bias 19.11.2025, 14:00 Uhr

Warum wir „weibliche“ KI ausnutzen und „männlicher“ misstrauen

Geschlechterrollen sind tief in unseren sozialen Strukturen verankert. Wir übertragen diese sogar unbewusst auf künstliche Intelligenz. Für Unternehmen, Führungskräfte und Personalabteilungen ist das mehr als eine Randnotiz: Es betrifft die Art, wie Teams KI nutzen, wie Mitarbeitende Entscheidungen treffen und wie digitale Systeme Arbeitsprozesse beeinflussen.

Studie zeigt: Menschen projizieren Geschlechterrollen auf KI – mit Folgen für Führung, HR und Zusammenarbeit.

Foto: Smarterpix/phonlamai

Studie zeigt: Menschen projizieren Geschlechterrollen auf KI – mit Folgen für Führung, HR und Zusammenarbeit.

Foto: Smarterpix/phonlamai

In der im Fachjournal „iScience“ veröffentlichten Untersuchung der Ludwig-Maximilians-Universität München (LMU) und des Trinity College Dublin spielten über 400 Teilnehmende wiederholt Varianten des Gefangenendilemmas. Dabei traten sie teils gegen menschliche, teils gegen KI-basierte Spielpartner an, die jeweils als männlich, weiblich, nicht-binär oder neutral gekennzeichnet waren.

Das Gefangenendilemma ist ein Modell der Spieltheorie, bei dem zwei Spieler gleichzeitig entscheiden müssen, ob sie kooperieren oder den anderen ausnutzen. Kooperation bringt beiden ein gutes Ergebnis, Ausnutzung dem Einzelnen riesige Vorteile – führt aber, wenn beide misstrauisch handeln, zu einem schlechteren Gesamtausgang.

 

Objektivität als Kernkompetenz

Eine zentrale Fachkompetenz von Führungskräften besteht darin, objektiv zu urteilen, informierte Entscheidungen zu treffen und persönliche wie strukturelle Biases zu erkennen. Manche Führungskräfte schaffen dies mehr, andere weniger gut.

Stellenangebote im Bereich Projektmanagement

Projektmanagement Jobs
Netzgesellschaft Potsdam GmbH-Firmenlogo
Ingenieur (m/w/d) Strategische Netzplanung - Strom Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Netzgesellschaft Potsdam GmbH-Firmenlogo
Projektleiter / Bauleiter (m/w/d) Netzbau und Anlagenbau Strom Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Hochschule Merseburg-Firmenlogo
Professur (W2): Sensor- und Ultraschalltechnik Hochschule Merseburg
Merseburg Zum Job 
Stadtwerke Augsburg Energie GmbH-Firmenlogo
Planer (m/w/d) Wärmeerzeugungsanlagen im Bereich Energiedienstleistung Stadtwerke Augsburg Energie GmbH
Augsburg Zum Job 
Regierungspräsidium Freiburg-Firmenlogo
Bachelor / Diplom (FH) Bauingenieurwesen, Infrastrukturingenieurwesen, Umweltingenieurwesen (m/w/d) Regierungspräsidium Freiburg
Freiburg Zum Job 
Stadt Köln-Firmenlogo
Ingenieur*in (m/w/d) als Sachgebietsleitung in der Unteren Immissionsschutz-, Wasser- und Abfallwirtschaftsbehörde im Umwelt- und Verbraucherschutzamt Stadt Köln
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Deutsche Rentenversicherung Nordbayern-Firmenlogo
Architekt (m/w/d) oder Bauingenieur (m/w/d) im Bereich Bauangelegenheiten Deutsche Rentenversicherung Nordbayern
Bayreuth Zum Job 
Groth & Co. Bauunternehmung GmbH-Firmenlogo
Kalkulator (m/w/d) Groth & Co. Bauunternehmung GmbH
Rostock Zum Job 
Berliner Stadtreinigung (BSR)-Firmenlogo
Projektingenieur:in Elektrotechnik (w/m/d) Berliner Stadtreinigung (BSR)
B. Braun Avitum Saxonia GmbH-Firmenlogo
Betriebsingenieur (w/m/d) B. Braun Avitum Saxonia GmbH
Radeberg, Sachsen bei Ansbach Zum Job 
DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH-Firmenlogo
Bauingenieur/Architekt (m/w/d) DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH
Leipzig Zum Job 
AbbVie Deutschland GmbH & Co. KG-Firmenlogo
Projektingenieur TGA Technische Gebäudeausrüstung (Junior - Senior) (all genders) AbbVie Deutschland GmbH & Co. KG
Ludwigshafen am Rhein Zum Job 
Verkehrsbetriebe Karlsruhe (VBK)-Firmenlogo
Projektingenieur*in Baustoffbeschaffung / Instandhaltungsmaßnahmen Verkehrsbetriebe Karlsruhe (VBK)
Karlsruhe Zum Job 
TenneT TSO GmbH-Firmenlogo
Sachbearbeiter für Wandler in Umspannwerken (m/w/d) TenneT TSO GmbH
DICO Drinks GmbH-Firmenlogo
Projektmanager - Betriebsengineering (m/w/d) DICO Drinks GmbH
Hückelhoven Zum Job 
Emscher Lippe Energie GmbH-Firmenlogo
Teamleiter operativer Messstellenbetrieb (m/w/d) Emscher Lippe Energie GmbH
Gelsenkirchen Zum Job 
Stadtwerke Verkehrsgesellschaft Frankfurt am Main mbH-Firmenlogo
Konstruktionsingenieur:in EPLAN (d/m/w) Stadtwerke Verkehrsgesellschaft Frankfurt am Main mbH
Frankfurt am Main Zum Job 
Städtische Bühnen Frankfurt am Main GmbH-Firmenlogo
Architekt:in als Fachplaner:in (m/w/d) Hochbau & Gebäudemanagement Städtische Bühnen Frankfurt am Main GmbH
Frankfurt am Main Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur für den Bauwerksentwurf (w/m/d) Die Autobahn GmbH des Bundes
Hamburg, Lüneburg Zum Job 

Die Ergebnisse der Studie zeigen jedoch, wir projizieren geschlechtsspezifischen Bias nicht nur auf unsere Mitmenschen, sondern genauso auf KI-Systeme. „Weiblich“ gekennzeichnete KI wurde ähnlich stark ausgenutzt wie menschliche Frauen – teilweise sogar stärker. „Männlich“ markierter KI wurde in vergleichbarer Weise misstraut.

Damit ist erstmals empirisch belegt, dass sich Geschlechterbias unverändert auf den Mensch-Maschine-Kontext überträgt.

Dadurch entsteht ein doppeltes Problem: Führungskräfte verlassen sich auf Technologien, die durch menschliche Projektionen verzerrt wahrgenommen werden, und übersehen zugleich, dass diese Wahrnehmungen das eigene Entscheidungsverhalten beeinflussen. Das kann in der Praxis zu Fehleinschätzungen, unfairen Bewertungen und einer verzerrten Zusammenarbeit zwischen Mitarbeitenden und digitalen Assistenzsystemen führen.

Bias macht nicht vor Maschinen halt

KI unterstützt heute unter anderen beim Recruiting, interne Kommunikation, Weiterbildung und Kundenservice. Wenn Mitarbeitende jedoch unterschiedlich kooperieren, nur weil ein System „weiblich“ oder „männlich“ erscheint, entstehen reale Verzerrungen im Arbeitsalltag.

Ein digitaler Assistent, der als „weiblich“ wahrgenommen wird, wird vielleicht häufiger überlastet oder weniger ernst genommen. Ein „männlich“ wirkender Chatbot möglicherweise misstrauischer behandelt. Beides beeinflusst Zusammenarbeit, Effizienz und Entscheidungskultur.

Bias-Reflexion war lange ein rein zwischenmenschliches Thema. Die Studie zeigt jedoch: Professionelles Verhalten gegenüber KI wird zur sozialen Kompetenz.

Lesen Sie dazu auch: Für die KI sind Ingenieure immer noch Männer

KI-Design wird zur Führungsaufgabe

Unternehmen müssen künftig deutlich bewusster entscheiden, wie interaktive KI gestaltet wird. Von der Frage, ob eine Stimme weiblich, männlich oder neutral klingen soll, über die Wahl eines kulturell oder geschlechtlich konnotierten Namens bis hin zur Entscheidung, ob ein Avatar menschenähnlich oder abstrakt wirkt. All diese Faktoren prägen, wie Mitarbeitende Vertrauen aufbauen, wie sie mit einem System kooperieren – oder es ausnutzen – und wie stark sich unbewusste Erwartungen und Rollenbilder in die tägliche Interaktion einschreiben.

Dr. Jurgis Karpus, Mitautor der Studie, verweist dabei auf ein zentrales Spannungsfeld: „KI-Agenten mit menschenähnlichen Eigenschaften auszustatten, kann die Zusammenarbeit zwischen Menschen und KI fördern, birgt jedoch auch die Gefahr, dass unerwünschte bestehende geschlechtsspezifische Vorurteile aus menschlichen Interaktionen auf Künstliche Intelligenz übertragen und verstärkt werden.“

Warum geschlechtsneutrale KI entscheidend ist

Da KI in immer mehr Unternehmensbereichen eingesetzt wird, gewinnen Fragen der geschlechtsneutralen Gestaltung zunehmend an Bedeutung. Neutrale Stimmen, Namen und Avatare können helfen, unbewusste Projektionen zu reduzieren und sicherzustellen, dass Mitarbeitende nicht aufgrund vermeintlicher Geschlechtsmerkmale unterschiedlich mit Systemen interagieren.

Ebenso wichtig ist es, Beschäftigte durch KI-Training für die Entstehung und Wirkung von Bias zu sensibilisieren und Führungskräfte darin zu schulen, welche sozialen Folgen Designentscheidungen haben können.

Die Forschenden betonen, dass Unternehmen nur dann vertrauenswürdige und faire KI-Lösungen entwickeln, wenn verschiedene Bereiche – von HR über UX-Design bis hin zu Recht und IT – gemeinsam Standards für verantwortungsvolles KI-Design definieren.

Auch der Blick auf aktuelle regulatorische Anforderungen wie den EU AI Act sei entscheidend, um Diskriminierungsrisiken frühzeitig zu erkennen und zu vermeiden.

Ein Beitrag von:

  • Tim Stockhausen

    Tim Stockhausen ist Volontär beim VDI Verlag. 2024 schloss er sein Studium der visuellen Technikkommunikation an der Hochschule Bonn-Rhein-Sieg ab. Seine journalistischen Interessen gelten insbesondere Künstlicher Intelligenz, Mobilität, Raumfahrt und digitalen Welten.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.