Verborgener Bias 11.10.2025, 08:45 Uhr

Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche

Künstliche Intelligenz soll objektiv urteilen, doch die Realität sieht meist anders aus. Eine Untersuchung der Hochschule München und Forschungsergebnisse der Cornell University zeigen: Chatbots wie ChatGPT können sogar regionale Vorurteile innerhalb Deutschlands reproduzieren.

Forscherinnen der Hochschule München zeigen auf einen Monitor mit den Ergebnissen der Studie.

KI-Modelle wie ChatGPT bewerten Ostdeutsche und Dialekte systematisch schlechter. Ein Risiko für faire Entscheidungen.

Foto: Julia Bergmeister

Large Language Models (LLMs) basieren auf gewaltigen Datenmengen, in denen sie Muster erkennen und verallgemeinern. Genau diese Fähigkeit macht sie nützlich, aber auch anfällig für den sogenannten Bias, also Informationen zu bevorzugen oder sogar zu verzerren.

Vorurteile in den Daten: Ostdeutsche werden schlechter dargestellt

Das Team von der Hochschule München testete, wie Modelle mit Stereotypen über Ostdeutschland umgehen. ChatGPT und das deutsche Modell LeoLM sollten verschiedenen Bundesländern Eigenschaften wie Attraktivität, Fleiß oder Arroganz zuordnen und auch neutrale Merkmale wie die Körpertemperatur.

Das auffällige Ergebnis: Ostdeutsche Länder wurden in allen Kategorien durchgängig niedriger bewertet, unabhängig davon, ob es um positive, negative oder völlig neutrale Merkmale ging. In widersprüchlicher Weise etwa bei Fleiß und Faulheit: Die KI ordnete Ostdeutschen sowohl weniger Fleiß als auch weniger Faulheit zu — ein Muster, das deutlich auf eine Verzerrung hindeutet. Bei der neutralen Kategorie Körpertemperatur wurde sogar eine niedrigere Temperatur zugewiesen.

„Die Modelle lernen offenbar, dass in bestimmten Regionen die Zahlen generell niedriger sind“, erklärt Mila Stillman von der Hochschule München.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
swa Netze GmbH-Firmenlogo
Elektroingenieur (m/w/d) Einspeiseanlagen mit Führungsperspektive swa Netze GmbH
Augsburg Zum Job 
Sanitätsakademie der Bundeswehr-Firmenlogo
Projektleiter (m/w/d) für den Bereich Elektrotechnik Sanitätsakademie der Bundeswehr
München Zum Job 
Amt für Binnen-Verkehrstechnik-Firmenlogo
Ingenieurin / Ingenieur (m/w/d) (FH-Diplom/Bachelor) in der Fachrichtung Nachrichtentechnik/Informationstechnik oder vergleichbar Amt für Binnen-Verkehrstechnik
Koblenz Zum Job 
WBS TRAINING-Firmenlogo
Lernbegleiter:in / Trainer:in für SPS-Programmierung (m/w/d) WBS TRAINING
Deutschland / Homeoffice Zum Job 
Netzgesellschaft Potsdam GmbH-Firmenlogo
Ingenieur (m/w/d) Strategische Netzplanung - Strom Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Netzgesellschaft Potsdam GmbH-Firmenlogo
Projektleiter / Bauleiter (m/w/d) Netzbau und Anlagenbau Strom Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Hochschule Merseburg-Firmenlogo
Professur (W2): Sensor- und Ultraschalltechnik Hochschule Merseburg
Merseburg Zum Job 
Karlsruher Institut für Technologie (KIT)-Firmenlogo
Leiterin / Leiter Projektträgerschaft "Projektgeförderte Endlagerforschung" (w/m/d) Karlsruher Institut für Technologie (KIT)
Eggenstein-Leopoldshafen Zum Job 
General Aerospace GmbH-Firmenlogo
Industrial Engineer (w/m/d) General Aerospace GmbH
Eschbach Zum Job 
Hochschule Heilbronn-Firmenlogo
Professur für angewandte KI im Wirtschaftsingenieurwesen Hochschule Heilbronn
Heilbronn Zum Job 
Honda R&D Europe (Deutschland) GmbH-Firmenlogo
Entwicklungsingenieur (m/w/d) Fahrdynamik, Fahrversuch und Simulation Honda R&D Europe (Deutschland) GmbH
Offenbach am Main Zum Job 
Ostbayerische Technische Hochschule Amberg-Weiden (OTH)-Firmenlogo
Professur (m/w/d) der BesGr. W2 für das Lehrgebiet Solarenergie und Gebäudeautomation Ostbayerische Technische Hochschule Amberg-Weiden (OTH)
Wirtgen GmbH-Firmenlogo
Functional Safety Software Engineer (m/w/d) - für mobile Arbeitsmaschinen Wirtgen GmbH
Windhagen Zum Job 
THU Technische Hochschule Ulm-Firmenlogo
W2-Professur "Elektronik" THU Technische Hochschule Ulm
WARO MSR-Technik GmbH-Firmenlogo
SPS-/DDC-Programmierer (m/w/d) und/oder DDC-Programmierer (m/w/d) WARO MSR-Technik GmbH
Lübeck Zum Job 
Prognost Systems GmbH-Firmenlogo
Spezialist für Maschinendiagnose im Technischen Support / Elektrotechniker / Maschinenbauer (m/w/d) Prognost Systems GmbH
Bundesamt für Bauwesen und Raumordnung (BBR)-Firmenlogo
Ingenieurinnen / Ingenieure (w/m/d) für Elektrotechnik Bundesamt für Bauwesen und Raumordnung (BBR)
HEINE Optotechnik GmbH & Co. KG-Firmenlogo
Ingenieur für Automatisierung und Robotik (m/w/d) HEINE Optotechnik GmbH & Co. KG
Gilching bei München Zum Job 
J.P. Sauer & Sohn Maschinenbau GmbH-Firmenlogo
Elektroingenieur (m/w/d) Produktindustrialisierung J.P. Sauer & Sohn Maschinenbau GmbH
Bundesamt für Bauwesen und Raumordnung (BBR)-Firmenlogo
Ingenieurin / Ingenieur (w/m/d) als Projektleitung "Elektro- bzw. Nachrichtentechnik" Bundesamt für Bauwesen und Raumordnung (BBR)

Die Münchner Forschenden testeten verschiedene Strategien, um die Verzerrungen zu vermeiden – etwa durch Anweisungen wie „Bewerte alle Regionen fair und unabhängig von deren Herkunft“. Doch auch diese sogenannten „Debiasing Prompts“ führten nur zu geringen Verbesserungen.

Verzerrung der Daten

Die Forscherinnen sprechen von einem „systemischen Musterverzerrer“. Das bedeutet: Das Modell hat aus seinen Trainingsdaten gelernt, dass Ostdeutschland in statistischen oder textlichen Zusammenhängen häufig mit negativen oder minderwertigen Bewertungen assoziiert wird. Besonders bemerkenswert: Der Bias bleibt bestehen, selbst wenn die Fragestellung neutral formuliert ist oder explizit keine kulturellen Unterschiede nahelegt.

„Die Verzerrung ist nicht durch die Frage erzeugt, sondern bereits im Modell angelegt.“ macht Prof. Anna Kruspe deutlich

Die Autorinnen warnen: Wenn solche Modelle unreflektiert in Bewerbungsverfahren oder Bewertungssysteme integriert werden, könnten Ostdeutsche strukturell benachteiligt werden

Sprachmodelle diskriminieren auch Dialekte

Ein zentraler Befund der Cornell-Forschung bestätigt, das KI nicht nur soziale, sondern auch sprachliche Diskriminierung betreibt. Sprachmodelle reagieren sensibel auf Nuancen der Ausdrucksweise – und genau das macht sie anfällig für Dialekt- und Akzent-Bias.

Das Forschungsteam um Tobias Grüning von der Universität Mannheim testete GPT-4, Gemini und LeoLM mit Sätzen in verschiedenen deutschen Dialekten. Das Ergebnis: Bei standarddeutschen Eingaben erzielten die Modelle durchweg höhere Bewertungs-Scores und lieferten qualitativere Antworten als bei dialektalen Formulierungen. In Einzelfällen wurden Dialektausdrücke sogar automatisch ins Hochdeutsche „korrigiert“.

Cornell-Forscher Jon Kleinberg beschreibt diesen Mechanismus als „Linguistic Bias Cascade“: Ein kleiner Unterschied in der Formulierung genügt, um das Modell in eine andere Bewertungsschiene zu lenken. Etwa von „kompetent“ zu „unsicher“, von „freundlich“ zu „unterwürfig“. In Verbindung mit regionalen Mustern – etwa, wenn Dialekte bestimmten Bundesländern zugeordnet werden – kann das Modell implizit Rückschlüsse auf Herkunft oder Bildung ziehen.

Gerade in Deutschland, wo Dialekte traditionell mit sozialer Herkunft oder Bildungsstand korreliert sind, verstärkt KI somit alte Stereotype technologisch. Ein Bewerber, der sich in E-Mails oder Chat-Eingaben mit leicht sächsischem Satzbau ausdrückt, könnte durch ein KI-gestütztes Screening-Tool benachteiligt werden – nicht wegen seiner Qualifikation, sondern wegen seines Sprachmusters.

Vielfalt als Schlüssel zu fairer KI

Die Cornell-Studie plädiert daher für eine Erweiterung der Fairness-Definition in der KI-Forschung: Neben Geschlecht, Alter oder Ethnie müsse auch sprachliche Vielfalt als schützenswerte Kategorie gelten. Systeme sollten nachweislich in der Lage sein, regionale und dialektale Varietäten korrekt und gleichwertig zu verarbeiten.

Auch Prof. Kruspe von der Hochschule München fordert in diesem Zusammenhang, Dialekte aktiv in Trainingskorpora einzubeziehen: „Wenn KI die Gesellschaft abbilden soll, muss sie auch deren sprachliche Realität kennen.“ Erst dann könne man von einer inklusiven Technologie sprechen.

Ein Beitrag von:

  • Tim Stockhausen

    Tim Stockhausen ist Volontär beim VDI Verlag. 2024 schloss er sein Studium der visuellen Technikkommunikation an der Hochschule Bonn-Rhein-Sieg ab. Seine journalistischen Interessen gelten insbesondere Künstlicher Intelligenz, Mobilität, Raumfahrt und digitalen Welten.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.