Verborgener Bias 11.10.2025, 08:45 Uhr

Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche

Künstliche Intelligenz soll objektiv urteilen, doch die Realität sieht meist anders aus. Eine Untersuchung der Hochschule München und Forschungsergebnisse der Cornell University zeigen: Chatbots wie ChatGPT können sogar regionale Vorurteile innerhalb Deutschlands reproduzieren.

Forscherinnen der Hochschule München zeigen auf einen Monitor mit den Ergebnissen der Studie.

KI-Modelle wie ChatGPT bewerten Ostdeutsche und Dialekte systematisch schlechter. Ein Risiko für faire Entscheidungen.

Foto: Julia Bergmeister

Large Language Models (LLMs) basieren auf gewaltigen Datenmengen, in denen sie Muster erkennen und verallgemeinern. Genau diese Fähigkeit macht sie nützlich, aber auch anfällig für den sogenannten Bias, also Informationen zu bevorzugen oder sogar zu verzerren.

Vorurteile in den Daten: Ostdeutsche werden schlechter dargestellt

Das Team von der Hochschule München testete, wie Modelle mit Stereotypen über Ostdeutschland umgehen. ChatGPT und das deutsche Modell LeoLM sollten verschiedenen Bundesländern Eigenschaften wie Attraktivität, Fleiß oder Arroganz zuordnen und auch neutrale Merkmale wie die Körpertemperatur.

Das auffällige Ergebnis: Ostdeutsche Länder wurden in allen Kategorien durchgängig niedriger bewertet, unabhängig davon, ob es um positive, negative oder völlig neutrale Merkmale ging. In widersprüchlicher Weise etwa bei Fleiß und Faulheit: Die KI ordnete Ostdeutschen sowohl weniger Fleiß als auch weniger Faulheit zu — ein Muster, das deutlich auf eine Verzerrung hindeutet. Bei der neutralen Kategorie Körpertemperatur wurde sogar eine niedrigere Temperatur zugewiesen.

„Die Modelle lernen offenbar, dass in bestimmten Regionen die Zahlen generell niedriger sind“, erklärt Mila Stillman von der Hochschule München.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
Bundesanstalt für Immobilienaufgaben-Firmenlogo
Elektroingenieurin / Elektroingenieur (Betriebsmanagerin / Betriebsmanager) (w/m/d) Bundesanstalt für Immobilienaufgaben
Braunschweig Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Ingenieur*in / Architekt*in / Bauleiter*in (m/w/d) für Großprojekte (Freileitung, Kabeltiefbau, Bahn) THOST Projektmanagement GmbH
Berlin, Hamburg, Hannover, Nürnberg, Kiel Zum Job 
TÜV SÜD AG-Firmenlogo
Sachverständige/-r (m/w/d) Elektrotechnik TÜV SÜD AG
TÜV SÜD AG-Firmenlogo
Prüfingenieur/-in (m/w/d) Elektrotechnik im Bereich elektromagnetische Verträglichkeit - EMV und EMF TÜV SÜD AG
DEKRA Automobil GmbH-Firmenlogo
Ingenieur für Elektrotechnik (m/w/d) DEKRA Automobil GmbH
Stuttgart Zum Job 
GREINER Engineering GmbH-Firmenlogo
Planer / Ingenieur (w/m/d) Elektrotechnik GREINER Engineering GmbH
Konstanz Zum Job 
TenneT-Firmenlogo
Ingenieur (m/w/d) für den Bereich Schutztechnik TenneT
OCS Optical Control Systems GmbH-Firmenlogo
Entwicklungsingenieure (m/w/d) für die Bildverarbeitung & Softwareentwicklung OCS Optical Control Systems GmbH
OCS Optical Control Systems GmbH-Firmenlogo
Projektingenieur (m/w/d) für Automatisierungssysteme OCS Optical Control Systems GmbH
OCS Optical Control Systems GmbH-Firmenlogo
Applikationsingenieur (m/w/d) für Automatisierungssysteme OCS Optical Control Systems GmbH
ISB Rhein-Main GmbH-Firmenlogo
Planungsingenieur Leit- und Sicherungstechnik (LST) (m/w/d) ISB Rhein-Main GmbH
Frankfurt Zum Job 
ISB Rhein-Main GmbH-Firmenlogo
Teamleiter Telekommunikationsanlagen DB (m/w/d) ISB Rhein-Main GmbH
Frankfurt Zum Job 
FERCHAU GmbH-Firmenlogo
Techniker/Ingenieur Automatisierungstechnik (m/w/d) FERCHAU GmbH
FERCHAU GmbH-Firmenlogo
Projektmanager SNT (m/w/d) FERCHAU GmbH
FERCHAU GmbH-Firmenlogo
Projektingenieur/-techniker Automatisierung (m/w/d) FERCHAU GmbH
FERCHAU GmbH-Firmenlogo
Servicetechniker Elektrotechnik / Mechatronik (m/w/d) FERCHAU GmbH
DNV-Firmenlogo
Senior/Principal Consultant Power Cables (f/m/d) DNV
Dresden Zum Job 
DNV-Firmenlogo
(Senior) Consultant for Digital System Operation (f/m/d) DNV
Dresden, Schönefeld Zum Job 
DNV-Firmenlogo
Consultant / Ingenieur Power Cables (f/m/d) DNV
Dresden, Arnhem (Niederlande) Zum Job 
TÜV NORD GROUP-Firmenlogo
Profit-Center Leiter:in Anlagensicherungen und IT-Security TÜV NORD GROUP
Hannover, Hamburg Zum Job 

Die Münchner Forschenden testeten verschiedene Strategien, um die Verzerrungen zu vermeiden – etwa durch Anweisungen wie „Bewerte alle Regionen fair und unabhängig von deren Herkunft“. Doch auch diese sogenannten „Debiasing Prompts“ führten nur zu geringen Verbesserungen.

Verzerrung der Daten

Die Forscherinnen sprechen von einem „systemischen Musterverzerrer“. Das bedeutet: Das Modell hat aus seinen Trainingsdaten gelernt, dass Ostdeutschland in statistischen oder textlichen Zusammenhängen häufig mit negativen oder minderwertigen Bewertungen assoziiert wird. Besonders bemerkenswert: Der Bias bleibt bestehen, selbst wenn die Fragestellung neutral formuliert ist oder explizit keine kulturellen Unterschiede nahelegt.

„Die Verzerrung ist nicht durch die Frage erzeugt, sondern bereits im Modell angelegt.“ macht Prof. Anna Kruspe deutlich

Die Autorinnen warnen: Wenn solche Modelle unreflektiert in Bewerbungsverfahren oder Bewertungssysteme integriert werden, könnten Ostdeutsche strukturell benachteiligt werden

Sprachmodelle diskriminieren auch Dialekte

Ein zentraler Befund der Cornell-Forschung bestätigt, das KI nicht nur soziale, sondern auch sprachliche Diskriminierung betreibt. Sprachmodelle reagieren sensibel auf Nuancen der Ausdrucksweise – und genau das macht sie anfällig für Dialekt- und Akzent-Bias.

Das Forschungsteam um Tobias Grüning von der Universität Mannheim testete GPT-4, Gemini und LeoLM mit Sätzen in verschiedenen deutschen Dialekten. Das Ergebnis: Bei standarddeutschen Eingaben erzielten die Modelle durchweg höhere Bewertungs-Scores und lieferten qualitativere Antworten als bei dialektalen Formulierungen. In Einzelfällen wurden Dialektausdrücke sogar automatisch ins Hochdeutsche „korrigiert“.

Cornell-Forscher Jon Kleinberg beschreibt diesen Mechanismus als „Linguistic Bias Cascade“: Ein kleiner Unterschied in der Formulierung genügt, um das Modell in eine andere Bewertungsschiene zu lenken. Etwa von „kompetent“ zu „unsicher“, von „freundlich“ zu „unterwürfig“. In Verbindung mit regionalen Mustern – etwa, wenn Dialekte bestimmten Bundesländern zugeordnet werden – kann das Modell implizit Rückschlüsse auf Herkunft oder Bildung ziehen.

Gerade in Deutschland, wo Dialekte traditionell mit sozialer Herkunft oder Bildungsstand korreliert sind, verstärkt KI somit alte Stereotype technologisch. Ein Bewerber, der sich in E-Mails oder Chat-Eingaben mit leicht sächsischem Satzbau ausdrückt, könnte durch ein KI-gestütztes Screening-Tool benachteiligt werden – nicht wegen seiner Qualifikation, sondern wegen seines Sprachmusters.

Vielfalt als Schlüssel zu fairer KI

Die Cornell-Studie plädiert daher für eine Erweiterung der Fairness-Definition in der KI-Forschung: Neben Geschlecht, Alter oder Ethnie müsse auch sprachliche Vielfalt als schützenswerte Kategorie gelten. Systeme sollten nachweislich in der Lage sein, regionale und dialektale Varietäten korrekt und gleichwertig zu verarbeiten.

Auch Prof. Kruspe von der Hochschule München fordert in diesem Zusammenhang, Dialekte aktiv in Trainingskorpora einzubeziehen: „Wenn KI die Gesellschaft abbilden soll, muss sie auch deren sprachliche Realität kennen.“ Erst dann könne man von einer inklusiven Technologie sprechen.

Ein Beitrag von:

  • Tim Stockhausen

    Tim Stockhausen ist Volontär beim VDI Verlag. 2024 schloss er sein Studium der visuellen Technikkommunikation an der Hochschule Bonn-Rhein-Sieg ab. Seine journalistischen Interessen gelten insbesondere Künstlicher Intelligenz, Mobilität, Raumfahrt und digitalen Welten.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.