Blick in die Psyche: ChatGPT erkennt Muster, die Ärzten entgehen
Künstliche Intelligenz dringt in einen bislang eher unzugänglichen Bereich vor: die menschliche Psyche. Ein Kölner Forschungsteam zeigt, dass Sprachmodelle Muster psychischer Erkrankungen erkennen können. Damit machen sie eine zentrale Schwachstelle der heutigen Diagnostik sichtbar.
Kölner Forschende zeigen, wie KI sprachliche Muster psychischer Erkrankungen erkennt und Schwächen in der heutigen psychiatrischen Diagnostik offenlegt.
Foto: Smarterpix/tarik_vision
Psychiatrische Diagnostik basiert bis heute stark auf klinischen Fragebögen, in denen Patientinnen und Patienten ihre Symptome beschreiben. Diese Methode hat jedoch Schwächen: Viele der Fragen ähneln sich, überschneiden sich oder verwenden Formulierungen, die je nach Person unterschiedlich verstanden werden können. Dadurch wird die Zuordnung einer spezifischen Erkrankung erschwert. Ärztinnen und Ärzte müssen oft anhand eigener Erfahrung entscheiden, welche Symptome relevant sind. Das birgt das Risiko von Fehldiagnosen und Variabilität zwischen verschiedenen Kliniken.
Was die KI in den Daten erkennt
Die in Nature Mental Health veröffentlichte Studie liefert wichtige Hinweise darauf, wie große Sprachmodelle strukturelle Muster psychischer Symptome abbilden können. Forschende der Universität zu Köln unter der Federführung von Joseph Kambeitz und Kai Vogeley testeten unter anderem die Modelle GPT-3, Llama und BERT anhand von über 50.000 Fragebogen-Antworten zu Depressionen, Angst, Psychoserisiko und Autismus von insgesamt 39.755 Teilnehmenden.
Die zentrale Idee der Studie: Wenn Fragebögen sprachlich aufgebaut sind, müssten Sprachmodelle in der Lage sein, die Bedeutungsstrukturen hinter diesen Formulierungen zu erkennen.
Dafür berechneten die Forschenden sogenannte „Embeddings“. Das sind numerische Repräsentationen, die ein Sprachmodell aus einem Text erzeugt. Jedes Fragebogenitem – also jede einzelne Frage oder Aussage – wird so abgebildet. Anschließend wurde geprüft, wie gut diese erzeugten Embeddings mit den tatsächlichen statistischen Beziehungen zwischen Symptomen übereinstimmen, die in den großen Datensätzen gemessen wurden.
Die Modelle zeigten eine starke Übereinstimmung mit realen Datenmustern. Sie konnten abbilden, welche Symptome häufig gemeinsam auftreten und welche eher unabhängig voneinander sind. Damit lassen sich typische Strukturen psychischer Erkrankungen erkennen und zwar allein aus der sprachlichen Beschreibung der Symptome, ohne direkten Zugriff auf klinische Messwerte.
„KI kann nicht nur medizinisches Wissen abbilden, sondern auch die Strukturen psychischer Erkrankungen. Das ist ein wichtiger Schritt, um digitale Methoden und Neurowissenschaften enger zusammenzuführen und Diagnostik sowie Forschung in der Psychiatrie weiterzuentwickeln“, sagt Professor Kai Vogeley.
Neue Chance für Diagnose und technische Entwicklung
Die Studie legt nahe, dass KI künftig helfen könnte, Fragebögen effizienter und präziser zu gestalten. Beispielsweise könnten Items mit starker inhaltlicher Überschneidung entfernt werden, und neue Fragen könnten gezielt so formuliert werden, dass sie diagnostisch aussagekräftiger sind. Das Kölner Forschungsteam formuliert es so: „Große Sprachmodelle können dazu beitragen, die Fragebögen zur Diagnosestellung psychischer Erkrankungen zu verbessern, indem sie die Verallgemeinerbarkeit von Symptomen optimieren und Redundanzen reduzieren.“
Software-Tools zur Diagnostikunterstützung, digitale Gesundheitsplattformen oder Anwendungen im Bereich Telemedizin können von diesen Erkenntnissen profitieren. Die technische Herausforderung liegt darin, robuste Modelle zu entwickeln, die nicht nur eine hohe Präzision aufweisen, sondern auch integrativ in bestehende klinische Abläufe eingebettet sind.
Grenzen und Verantwortung
Künstliche Intelligenz kann menschliche Fachkräfte jedoch niemals komplett ersetzen. Sprachmodelle bilden immer nur das ab, was in ihren Trainingsdaten steckt – inklusive Verzerrungen, kultureller Unterschiede und Missverständnisse, die sich über große Datenmengen hinweg einschleifen. Das ist besonders relevant, weil in der Psychiatrie jede Formulierung Gewicht hat. Schon kleine sprachliche Unterschiede können beeinflussen, wie Symptome wahrgenommen und eingeordnet werden. KI kann diese sprachlichen Muster analysieren, aber sie versteht nicht, welche klinische Bedeutung sie im Einzelfall haben.
Hinzu kommt, dass psychische Erkrankungen häufig Aspekte umfassen, die schwer in Worte zu fassen sind. Gefühle, innere Konflikte, Erlebnisse oder soziale Umstände lassen sich oft nicht präzise formulieren. Sprachmodelle können jedoch nur verarbeiten, was explizit gesagt oder geschrieben wird. Alles, was sich nicht klar sprachlich äußert, bleibt für die Modelle unsichtbar. Das zeigt die Grenzen einer reinen KI-Analyse sehr deutlich.
Ein weiterer entscheidender Punkt ist der Umgang mit Daten. Psychische Gesundheitsinformationen gehören zu den sensibelsten überhaupt. Wer KI-gestützte Diagnosetools entwickelt oder einsetzt, muss höchste Standards bei Datenschutz, Datensicherheit und Nachvollziehbarkeit erfüllen.
Schließlich stellt sich die Frage nach der Verantwortung. KI kann Hinweise geben, Muster sichtbar machen und Diagnosen unterstützen, aber sie darf keine Entscheidungen ersetzen. Der klinische Kontext, die Erfahrung der Fachkräfte und das Gespräch mit den Patientinnen bleiben unverzichtbar. KI liefert zusätzliche Informationen, während die letztliche diagnostische Bewertung immer beim Menschen liegt.
Ein Beitrag von: