Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche
Künstliche Intelligenz soll objektiv urteilen, doch die Realität sieht meist anders aus. Eine Untersuchung der Hochschule München und Forschungsergebnisse der Cornell University zeigen: Chatbots wie ChatGPT können sogar regionale Vorurteile innerhalb Deutschlands reproduzieren.
KI-Modelle wie ChatGPT bewerten Ostdeutsche und Dialekte systematisch schlechter. Ein Risiko für faire Entscheidungen.
Foto: Julia Bergmeister
Large Language Models (LLMs) basieren auf gewaltigen Datenmengen, in denen sie Muster erkennen und verallgemeinern. Genau diese Fähigkeit macht sie nützlich, aber auch anfällig für den sogenannten Bias, also Informationen zu bevorzugen oder sogar zu verzerren.
Vorurteile in den Daten: Ostdeutsche werden schlechter dargestellt
Das Team von der Hochschule München testete, wie Modelle mit Stereotypen über Ostdeutschland umgehen. ChatGPT und das deutsche Modell LeoLM sollten verschiedenen Bundesländern Eigenschaften wie Attraktivität, Fleiß oder Arroganz zuordnen und auch neutrale Merkmale wie die Körpertemperatur.
Das auffällige Ergebnis: Ostdeutsche Länder wurden in allen Kategorien durchgängig niedriger bewertet, unabhängig davon, ob es um positive, negative oder völlig neutrale Merkmale ging. In widersprüchlicher Weise etwa bei Fleiß und Faulheit: Die KI ordnete Ostdeutschen sowohl weniger Fleiß als auch weniger Faulheit zu — ein Muster, das deutlich auf eine Verzerrung hindeutet. Bei der neutralen Kategorie Körpertemperatur wurde sogar eine niedrigere Temperatur zugewiesen.
„Die Modelle lernen offenbar, dass in bestimmten Regionen die Zahlen generell niedriger sind“, erklärt Mila Stillman von der Hochschule München.
Die Münchner Forschenden testeten verschiedene Strategien, um die Verzerrungen zu vermeiden – etwa durch Anweisungen wie „Bewerte alle Regionen fair und unabhängig von deren Herkunft“. Doch auch diese sogenannten „Debiasing Prompts“ führten nur zu geringen Verbesserungen.
Verzerrung der Daten
Die Forscherinnen sprechen von einem „systemischen Musterverzerrer“. Das bedeutet: Das Modell hat aus seinen Trainingsdaten gelernt, dass Ostdeutschland in statistischen oder textlichen Zusammenhängen häufig mit negativen oder minderwertigen Bewertungen assoziiert wird. Besonders bemerkenswert: Der Bias bleibt bestehen, selbst wenn die Fragestellung neutral formuliert ist oder explizit keine kulturellen Unterschiede nahelegt.
„Die Verzerrung ist nicht durch die Frage erzeugt, sondern bereits im Modell angelegt.“ macht Prof. Anna Kruspe deutlich
Die Autorinnen warnen: Wenn solche Modelle unreflektiert in Bewerbungsverfahren oder Bewertungssysteme integriert werden, könnten Ostdeutsche strukturell benachteiligt werden
Sprachmodelle diskriminieren auch Dialekte
Ein zentraler Befund der Cornell-Forschung bestätigt, das KI nicht nur soziale, sondern auch sprachliche Diskriminierung betreibt. Sprachmodelle reagieren sensibel auf Nuancen der Ausdrucksweise – und genau das macht sie anfällig für Dialekt- und Akzent-Bias.
Das Forschungsteam um Tobias Grüning von der Universität Mannheim testete GPT-4, Gemini und LeoLM mit Sätzen in verschiedenen deutschen Dialekten. Das Ergebnis: Bei standarddeutschen Eingaben erzielten die Modelle durchweg höhere Bewertungs-Scores und lieferten qualitativere Antworten als bei dialektalen Formulierungen. In Einzelfällen wurden Dialektausdrücke sogar automatisch ins Hochdeutsche „korrigiert“.
Cornell-Forscher Jon Kleinberg beschreibt diesen Mechanismus als „Linguistic Bias Cascade“: Ein kleiner Unterschied in der Formulierung genügt, um das Modell in eine andere Bewertungsschiene zu lenken. Etwa von „kompetent“ zu „unsicher“, von „freundlich“ zu „unterwürfig“. In Verbindung mit regionalen Mustern – etwa, wenn Dialekte bestimmten Bundesländern zugeordnet werden – kann das Modell implizit Rückschlüsse auf Herkunft oder Bildung ziehen.
Gerade in Deutschland, wo Dialekte traditionell mit sozialer Herkunft oder Bildungsstand korreliert sind, verstärkt KI somit alte Stereotype technologisch. Ein Bewerber, der sich in E-Mails oder Chat-Eingaben mit leicht sächsischem Satzbau ausdrückt, könnte durch ein KI-gestütztes Screening-Tool benachteiligt werden – nicht wegen seiner Qualifikation, sondern wegen seines Sprachmusters.
Vielfalt als Schlüssel zu fairer KI
Die Cornell-Studie plädiert daher für eine Erweiterung der Fairness-Definition in der KI-Forschung: Neben Geschlecht, Alter oder Ethnie müsse auch sprachliche Vielfalt als schützenswerte Kategorie gelten. Systeme sollten nachweislich in der Lage sein, regionale und dialektale Varietäten korrekt und gleichwertig zu verarbeiten.
Auch Prof. Kruspe von der Hochschule München fordert in diesem Zusammenhang, Dialekte aktiv in Trainingskorpora einzubeziehen: „Wenn KI die Gesellschaft abbilden soll, muss sie auch deren sprachliche Realität kennen.“ Erst dann könne man von einer inklusiven Technologie sprechen.
Ein Beitrag von: