Verborgener Bias 11.10.2025, 08:45 Uhr

Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche

Künstliche Intelligenz soll objektiv urteilen, doch die Realität sieht meist anders aus. Eine Untersuchung der Hochschule München und Forschungsergebnisse der Cornell University zeigen: Chatbots wie ChatGPT können sogar regionale Vorurteile innerhalb Deutschlands reproduzieren.

Forscherinnen der Hochschule München zeigen auf einen Monitor mit den Ergebnissen der Studie.

KI-Modelle wie ChatGPT bewerten Ostdeutsche und Dialekte systematisch schlechter. Ein Risiko für faire Entscheidungen.

Foto: Julia Bergmeister

Large Language Models (LLMs) basieren auf gewaltigen Datenmengen, in denen sie Muster erkennen und verallgemeinern. Genau diese Fähigkeit macht sie nützlich, aber auch anfällig für den sogenannten Bias, also Informationen zu bevorzugen oder sogar zu verzerren.

Vorurteile in den Daten: Ostdeutsche werden schlechter dargestellt

Das Team von der Hochschule München testete, wie Modelle mit Stereotypen über Ostdeutschland umgehen. ChatGPT und das deutsche Modell LeoLM sollten verschiedenen Bundesländern Eigenschaften wie Attraktivität, Fleiß oder Arroganz zuordnen und auch neutrale Merkmale wie die Körpertemperatur.

Das auffällige Ergebnis: Ostdeutsche Länder wurden in allen Kategorien durchgängig niedriger bewertet, unabhängig davon, ob es um positive, negative oder völlig neutrale Merkmale ging. In widersprüchlicher Weise etwa bei Fleiß und Faulheit: Die KI ordnete Ostdeutschen sowohl weniger Fleiß als auch weniger Faulheit zu — ein Muster, das deutlich auf eine Verzerrung hindeutet. Bei der neutralen Kategorie Körpertemperatur wurde sogar eine niedrigere Temperatur zugewiesen.

„Die Modelle lernen offenbar, dass in bestimmten Regionen die Zahlen generell niedriger sind“, erklärt Mila Stillman von der Hochschule München.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
WBS TRAINING-Firmenlogo
Lernbegleiter:in / Trainer:in für SPS-Programmierung (m/w/d) WBS TRAINING
Deutschland / Homeoffice Zum Job 
Prognost Systems GmbH-Firmenlogo
Spezialist für Maschinendiagnose im Technischen Support / Elektrotechniker / Maschinenbauer (m/w/d) Prognost Systems GmbH
HEINE Optotechnik GmbH & Co. KG-Firmenlogo
Ingenieur für Automatisierung und Robotik (m/w/d) HEINE Optotechnik GmbH & Co. KG
Gilching bei München Zum Job 
noris network AG-Firmenlogo
Elektroingenieur für GLT und MSR-Technik (m/w/d) noris network AG
Nürnberg Zum Job 
noris network AG-Firmenlogo
Techniker Zutrittskontrolle & Videoüberwachung / Datacenter Engineer (m/w/d) noris network AG
Nürnberg Zum Job 
General Aerospace GmbH-Firmenlogo
Industrial Engineer (w/m/d) General Aerospace GmbH
Eschbach Zum Job 
Honda R&D Europe (Deutschland) GmbH-Firmenlogo
Entwicklungsingenieur (m/w/d) Fahrdynamik, Fahrversuch und Simulation Honda R&D Europe (Deutschland) GmbH
Offenbach am Main Zum Job 
J.P. Sauer & Sohn Maschinenbau GmbH-Firmenlogo
Elektroingenieur (m/w/d) Produktindustrialisierung J.P. Sauer & Sohn Maschinenbau GmbH
Bundesamt für Bauwesen und Raumordnung (BBR)-Firmenlogo
Ingenieurin / Ingenieur (w/m/d) als Projektleitung "Elektro- bzw. Nachrichtentechnik" Bundesamt für Bauwesen und Raumordnung (BBR)
Rolls-Royce-Firmenlogo
Qualitätsingenieur (m/w/d) Elektrotechnik Rolls-Royce
Augsburg Zum Job 
Rolls-Royce-Firmenlogo
Messingenieur - Fachbereich Emissionsmesstechnik (m/w/d) Rolls-Royce
Friedrichshafen Zum Job 
Rolls-Royce-Firmenlogo
Projektingenieur (m/w/d) Elektrotechnik Rolls-Royce
Friedrichshafen Zum Job 
Bundesamt für Bauwesen und Raumordnung (BBR)-Firmenlogo
Ingenieurin bzw. Ingenieur (w/m/d) im Bereich Elektro- bzw. Nachrichtentechnik Bundesamt für Bauwesen und Raumordnung (BBR)
NORDEX GROUP-Firmenlogo
Projektingenieur Umspannwerke (m/w/d) NORDEX GROUP
Hamburg Zum Job 
Deutsches Elektronen-Synchrotron DESY-Firmenlogo
Engineer for DESY Beamline station P61B Deutsches Elektronen-Synchrotron DESY
Hamburg Zum Job 
GTM Gebäudetechnik Management GmbH-Firmenlogo
CAE-Systemplaner (m/w/d) für MSR-Anlagen GTM Gebäudetechnik Management GmbH
deutschlandweit Zum Job 
GTM Gebäudetechnik Management GmbH-Firmenlogo
CAE-Systemplaner (m/w/d) für MSR-Anlagen GTM Gebäudetechnik Management GmbH
deutschlandweit Zum Job 
Technische Hochschule Nürnberg Georg Simon Ohm-Firmenlogo
Professur für Maschinelles Lernen in der Produktion (W2) Technische Hochschule Nürnberg Georg Simon Ohm
Nürnberg Zum Job 
KANZAN Spezialpapiere GmbH-Firmenlogo
Technische Projektplaner (m/w/d) in der Papierindustrie KANZAN Spezialpapiere GmbH
Landguth Heimtiernahrung GmbH-Firmenlogo
Automation Engineer / Automatisierungsingenieur (m/w/d) - Produktion & Digitalisierung Landguth Heimtiernahrung GmbH
Ihlow Riepe Zum Job 

Die Münchner Forschenden testeten verschiedene Strategien, um die Verzerrungen zu vermeiden – etwa durch Anweisungen wie „Bewerte alle Regionen fair und unabhängig von deren Herkunft“. Doch auch diese sogenannten „Debiasing Prompts“ führten nur zu geringen Verbesserungen.

Verzerrung der Daten

Die Forscherinnen sprechen von einem „systemischen Musterverzerrer“. Das bedeutet: Das Modell hat aus seinen Trainingsdaten gelernt, dass Ostdeutschland in statistischen oder textlichen Zusammenhängen häufig mit negativen oder minderwertigen Bewertungen assoziiert wird. Besonders bemerkenswert: Der Bias bleibt bestehen, selbst wenn die Fragestellung neutral formuliert ist oder explizit keine kulturellen Unterschiede nahelegt.

„Die Verzerrung ist nicht durch die Frage erzeugt, sondern bereits im Modell angelegt.“ macht Prof. Anna Kruspe deutlich

Die Autorinnen warnen: Wenn solche Modelle unreflektiert in Bewerbungsverfahren oder Bewertungssysteme integriert werden, könnten Ostdeutsche strukturell benachteiligt werden

Sprachmodelle diskriminieren auch Dialekte

Ein zentraler Befund der Cornell-Forschung bestätigt, das KI nicht nur soziale, sondern auch sprachliche Diskriminierung betreibt. Sprachmodelle reagieren sensibel auf Nuancen der Ausdrucksweise – und genau das macht sie anfällig für Dialekt- und Akzent-Bias.

Das Forschungsteam um Tobias Grüning von der Universität Mannheim testete GPT-4, Gemini und LeoLM mit Sätzen in verschiedenen deutschen Dialekten. Das Ergebnis: Bei standarddeutschen Eingaben erzielten die Modelle durchweg höhere Bewertungs-Scores und lieferten qualitativere Antworten als bei dialektalen Formulierungen. In Einzelfällen wurden Dialektausdrücke sogar automatisch ins Hochdeutsche „korrigiert“.

Cornell-Forscher Jon Kleinberg beschreibt diesen Mechanismus als „Linguistic Bias Cascade“: Ein kleiner Unterschied in der Formulierung genügt, um das Modell in eine andere Bewertungsschiene zu lenken. Etwa von „kompetent“ zu „unsicher“, von „freundlich“ zu „unterwürfig“. In Verbindung mit regionalen Mustern – etwa, wenn Dialekte bestimmten Bundesländern zugeordnet werden – kann das Modell implizit Rückschlüsse auf Herkunft oder Bildung ziehen.

Gerade in Deutschland, wo Dialekte traditionell mit sozialer Herkunft oder Bildungsstand korreliert sind, verstärkt KI somit alte Stereotype technologisch. Ein Bewerber, der sich in E-Mails oder Chat-Eingaben mit leicht sächsischem Satzbau ausdrückt, könnte durch ein KI-gestütztes Screening-Tool benachteiligt werden – nicht wegen seiner Qualifikation, sondern wegen seines Sprachmusters.

Vielfalt als Schlüssel zu fairer KI

Die Cornell-Studie plädiert daher für eine Erweiterung der Fairness-Definition in der KI-Forschung: Neben Geschlecht, Alter oder Ethnie müsse auch sprachliche Vielfalt als schützenswerte Kategorie gelten. Systeme sollten nachweislich in der Lage sein, regionale und dialektale Varietäten korrekt und gleichwertig zu verarbeiten.

Auch Prof. Kruspe von der Hochschule München fordert in diesem Zusammenhang, Dialekte aktiv in Trainingskorpora einzubeziehen: „Wenn KI die Gesellschaft abbilden soll, muss sie auch deren sprachliche Realität kennen.“ Erst dann könne man von einer inklusiven Technologie sprechen.

Ein Beitrag von:

  • Tim Stockhausen

    Tim Stockhausen ist Volontär beim VDI Verlag. 2024 schloss er sein Studium der visuellen Technikkommunikation an der Hochschule Bonn-Rhein-Sieg ab. Seine journalistischen Interessen gelten insbesondere Künstlicher Intelligenz, Mobilität, Raumfahrt und digitalen Welten.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.