Verborgener Bias 11.10.2025, 08:45 Uhr

Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche

Künstliche Intelligenz soll objektiv urteilen, doch die Realität sieht meist anders aus. Eine Untersuchung der Hochschule München und Forschungsergebnisse der Cornell University zeigen: Chatbots wie ChatGPT können sogar regionale Vorurteile innerhalb Deutschlands reproduzieren.

Forscherinnen der Hochschule München zeigen auf einen Monitor mit den Ergebnissen der Studie.

KI-Modelle wie ChatGPT bewerten Ostdeutsche und Dialekte systematisch schlechter. Ein Risiko für faire Entscheidungen.

Foto: Julia Bergmeister

Large Language Models (LLMs) basieren auf gewaltigen Datenmengen, in denen sie Muster erkennen und verallgemeinern. Genau diese Fähigkeit macht sie nützlich, aber auch anfällig für den sogenannten Bias, also Informationen zu bevorzugen oder sogar zu verzerren.

Vorurteile in den Daten: Ostdeutsche werden schlechter dargestellt

Das Team von der Hochschule München testete, wie Modelle mit Stereotypen über Ostdeutschland umgehen. ChatGPT und das deutsche Modell LeoLM sollten verschiedenen Bundesländern Eigenschaften wie Attraktivität, Fleiß oder Arroganz zuordnen und auch neutrale Merkmale wie die Körpertemperatur.

Das auffällige Ergebnis: Ostdeutsche Länder wurden in allen Kategorien durchgängig niedriger bewertet, unabhängig davon, ob es um positive, negative oder völlig neutrale Merkmale ging. In widersprüchlicher Weise etwa bei Fleiß und Faulheit: Die KI ordnete Ostdeutschen sowohl weniger Fleiß als auch weniger Faulheit zu — ein Muster, das deutlich auf eine Verzerrung hindeutet. Bei der neutralen Kategorie Körpertemperatur wurde sogar eine niedrigere Temperatur zugewiesen.

„Die Modelle lernen offenbar, dass in bestimmten Regionen die Zahlen generell niedriger sind“, erklärt Mila Stillman von der Hochschule München.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
WAREMA Renkhoff SE-Firmenlogo
Manufacturing Engineer (m/w/d) Produktionstechnik WAREMA Renkhoff SE
Marktheidenfeld (Großraum Würzburg) Zum Job 
IMS Messsysteme GmbH-Firmenlogo
Sales Manager (m/w/i) Oberflächeninspektion IMS Messsysteme GmbH
Heiligenhaus Zum Job 
Nord-Micro GmbH & Co. KG-Firmenlogo
Projektmanager - Leiten von Entwicklungsprojekten (m/w/d) Nord-Micro GmbH & Co. KG
Frankfurt am Main Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Ingenieur*in / Architekt*in / Bauleiter*in (m/w/d) für Großprojekte (Freileitung, Kabeltiefbau, Bahn) THOST Projektmanagement GmbH
Berlin, Hamburg, Hannover, Nürnberg, Kiel Zum Job 
TÜV SÜD AG-Firmenlogo
Sachverständige/-r (m/w/d) Elektrotechnik TÜV SÜD AG
TÜV SÜD AG-Firmenlogo
Prüfingenieur/-in (m/w/d) Elektrotechnik im Bereich elektromagnetische Verträglichkeit - EMV und EMF TÜV SÜD AG
DEKRA Automobil GmbH-Firmenlogo
Ingenieur für Elektrotechnik (m/w/d) DEKRA Automobil GmbH
Stuttgart Zum Job 
GREINER Engineering GmbH-Firmenlogo
Planer / Ingenieur (w/m/d) Elektrotechnik GREINER Engineering GmbH
Konstanz Zum Job 
TenneT-Firmenlogo
Ingenieur (m/w/d) für den Bereich Schutztechnik TenneT
Stadt Worms-Firmenlogo
Ingenieur (Diplom / Bachelor / Master) für den Bereich TGA Elektrotechnik (m/w/d) Stadt Worms
THOST Projektmanagement GmbH-Firmenlogo
Projektmanager*in (m/w/d) für Industrie- und Energieprojekte THOST Projektmanagement GmbH
verschiedene Standorte Zum Job 
Draheim Ingenieure-Firmenlogo
Elektroplaner*in (m/w/d) technische Gebäudeausrüstung Draheim Ingenieure
Hamburg, Hamm, Aachen Zum Job 
AGR Betriebsführung GmbH-Firmenlogo
Ingenieur (m/w/d) Leittechnik AGR Betriebsführung GmbH
Albtal-Verkehrs-Gesellschaft mbH-Firmenlogo
Fachplaner*in für Leit- und Sicherungstechnik mit Schwerpunkt Digitale Zugsicherung ETCS/CBTC Albtal-Verkehrs-Gesellschaft mbH
Karlsruhe Zum Job 
AUMA Riester GmbH & Co. KG-Firmenlogo
Ingenieur:in (m/w/d) für Qualitätsvorausplanung AUMA Riester GmbH & Co. KG
Müllheim Zum Job 
Unfallkasse Mecklenburg-Vorpommern-Firmenlogo
Ingenieur / Naturwissenschaftler (m/w/d) für Berufskrankheiten-Ermittlung Unfallkasse Mecklenburg-Vorpommern
Schwerin Zum Job 
KNDS Deutschland-Firmenlogo
Ingenieur (m/w/d) Logistische Analysen KNDS Deutschland
München Zum Job 
KNDS Deutschland-Firmenlogo
Systemtechniker (m/w/d) KNDS Deutschland
München Zum Job 
Schleifring GmbH-Firmenlogo
Ingenieur/Vertriebsingenieur (m/w/d) für den Bereich Key Account Schleifring GmbH
Fürstenfeldbruck Zum Job 
Klinikum Leverkusen Service GmbH-Firmenlogo
Bauprojektmanager (m/w/d) Elektrotechnik Klinikum Leverkusen Service GmbH
Leverkusen Zum Job 

Die Münchner Forschenden testeten verschiedene Strategien, um die Verzerrungen zu vermeiden – etwa durch Anweisungen wie „Bewerte alle Regionen fair und unabhängig von deren Herkunft“. Doch auch diese sogenannten „Debiasing Prompts“ führten nur zu geringen Verbesserungen.

Verzerrung der Daten

Die Forscherinnen sprechen von einem „systemischen Musterverzerrer“. Das bedeutet: Das Modell hat aus seinen Trainingsdaten gelernt, dass Ostdeutschland in statistischen oder textlichen Zusammenhängen häufig mit negativen oder minderwertigen Bewertungen assoziiert wird. Besonders bemerkenswert: Der Bias bleibt bestehen, selbst wenn die Fragestellung neutral formuliert ist oder explizit keine kulturellen Unterschiede nahelegt.

„Die Verzerrung ist nicht durch die Frage erzeugt, sondern bereits im Modell angelegt.“ macht Prof. Anna Kruspe deutlich

Die Autorinnen warnen: Wenn solche Modelle unreflektiert in Bewerbungsverfahren oder Bewertungssysteme integriert werden, könnten Ostdeutsche strukturell benachteiligt werden

Sprachmodelle diskriminieren auch Dialekte

Ein zentraler Befund der Cornell-Forschung bestätigt, das KI nicht nur soziale, sondern auch sprachliche Diskriminierung betreibt. Sprachmodelle reagieren sensibel auf Nuancen der Ausdrucksweise – und genau das macht sie anfällig für Dialekt- und Akzent-Bias.

Das Forschungsteam um Tobias Grüning von der Universität Mannheim testete GPT-4, Gemini und LeoLM mit Sätzen in verschiedenen deutschen Dialekten. Das Ergebnis: Bei standarddeutschen Eingaben erzielten die Modelle durchweg höhere Bewertungs-Scores und lieferten qualitativere Antworten als bei dialektalen Formulierungen. In Einzelfällen wurden Dialektausdrücke sogar automatisch ins Hochdeutsche „korrigiert“.

Cornell-Forscher Jon Kleinberg beschreibt diesen Mechanismus als „Linguistic Bias Cascade“: Ein kleiner Unterschied in der Formulierung genügt, um das Modell in eine andere Bewertungsschiene zu lenken. Etwa von „kompetent“ zu „unsicher“, von „freundlich“ zu „unterwürfig“. In Verbindung mit regionalen Mustern – etwa, wenn Dialekte bestimmten Bundesländern zugeordnet werden – kann das Modell implizit Rückschlüsse auf Herkunft oder Bildung ziehen.

Gerade in Deutschland, wo Dialekte traditionell mit sozialer Herkunft oder Bildungsstand korreliert sind, verstärkt KI somit alte Stereotype technologisch. Ein Bewerber, der sich in E-Mails oder Chat-Eingaben mit leicht sächsischem Satzbau ausdrückt, könnte durch ein KI-gestütztes Screening-Tool benachteiligt werden – nicht wegen seiner Qualifikation, sondern wegen seines Sprachmusters.

Vielfalt als Schlüssel zu fairer KI

Die Cornell-Studie plädiert daher für eine Erweiterung der Fairness-Definition in der KI-Forschung: Neben Geschlecht, Alter oder Ethnie müsse auch sprachliche Vielfalt als schützenswerte Kategorie gelten. Systeme sollten nachweislich in der Lage sein, regionale und dialektale Varietäten korrekt und gleichwertig zu verarbeiten.

Auch Prof. Kruspe von der Hochschule München fordert in diesem Zusammenhang, Dialekte aktiv in Trainingskorpora einzubeziehen: „Wenn KI die Gesellschaft abbilden soll, muss sie auch deren sprachliche Realität kennen.“ Erst dann könne man von einer inklusiven Technologie sprechen.

Ein Beitrag von:

  • Tim Stockhausen

    Tim Stockhausen ist Volontär beim VDI Verlag. 2024 schloss er sein Studium der visuellen Technikkommunikation an der Hochschule Bonn-Rhein-Sieg ab. Seine journalistischen Interessen gelten insbesondere Künstlicher Intelligenz, Mobilität, Raumfahrt und digitalen Welten.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.