Wenn Patienten der KI nicht alles sagen
Künstliche Intelligenz bietet großes Potenzial für die Gesundheitsversorgung. Trotzdem könnte sie scheitern. Denn wichtige Themen wie Vertrauen, Datenqualität und Ethik werden zwar diskutiert, es sind bislang aber kaum Lösungen in Sicht.
Immer mehr Menschen nutzen KI-gestützte Symptom-Checker und Gesundheits-Apps zur ersten medizinischen Einschätzung. Eine Studie der Universität Würzburg zeigt jedoch: Gegenüber künstlicher Intelligenz schildern viele ihre Beschwerden deutlich weniger ausführlich als im Gespräch mit Ärzten oder Ärztinnen.
Foto: Smarterpix/Elnur
Wer heute unter Kopfschmerzen, Fieber oder Herzrasen leidet, fragt oft zuerst das Smartphone, statt sich an einen Arzt oder an eine Ärztin zu wenden. KI-gestützte Symptom-Checker, Gesundheits-Apps und Chatbots sind längst Teil des medizinischen Alltags geworden. Sie liefern erste Einschätzungen, sortieren Beschwerden nach Dringlichkeit und sollen Patienten und Patientinnen Orientierung bieten – wie dringend ist es, einen Termin in einer Praxis zu vereinbaren?
Inhaltsverzeichnis
- Weniger Details für die KI
- KI als erste medizinische Anlaufstelle
- Breites Einsatzspektrum
- Die KI fragt nicht nach
- Trainingsdaten nicht auf Minderheiten ausgelegt
- Warum Menschen KI weniger vertrauen als Ärzten
- Datenschutz bleibt ein sensibles Thema
- Vertrauen als technische Aufgabe
- Medizinische Daten als Rohstoff der KI
- KI muss mit echten Daten trainiert werden
- Die politische und ethische Debatte bei KI in der Medizin
- Warum KI gute Daten braucht
Doch genau an dieser Schnittstelle zwischen Mensch und Maschine entsteht offenbar ein gravierendes Problem. Eine aktuelle Studie der Universität Würzburg zeigt, dass Menschen gegenüber künstlicher Intelligenz (KI) weniger ausführlich über ihre Beschwerden sprechen als gegenüber dem medizinischen Fachpersonal.
Lesen Sie auch: CAR-T-Zelltherapie: Wie KI die Krebsbehandlung skalierbar machen soll
Weniger Details für die KI
Die Forschenden ließen 500 Teilnehmende simulierte Symptomberichte verfassen, etwa zu ungewöhnlichen Kopfschmerzen oder grippeähnlichen Beschwerden. Im Vorfeld erzählten sie einigen Probanden, ihre Angaben würden von Ärzten und Ärztinnen gelesen. Andere ließen sie in dem Glauben, ein KI-System würde die Daten bewerten. Das Ergebnis fiel deutlich aus. Wer meinte, mit einer Maschine zu kommunizieren, formulierte kürzer, vager und weniger detailreich.
Gerade in der Medizin kann das problematisch sein. Denn selbst hoch entwickelte KI-Systeme sind darauf angewiesen, möglichst vollständige Informationen zu erhalten. Fehlen wichtige Angaben, steigt das Risiko falscher Einschätzungen.
KI als erste medizinische Anlaufstelle
Die Studie trifft einen Nerv der Zeit. Denn künstliche Intelligenz hält in vielen Bereichen zunehmend Einzug in die medizinische Versorgung. Unter anderem experimentieren Kliniken, Versicherungen und Telemedizin-Anbieter mit automatisierten Ersteinschätzungen.
Besonders relevant ist dabei das Konzept der sogenannten „Self-Triage“. Das heißt, Patienten und Patientinnen geben ihre Symptome zunächst digital ein, bevor sie überhaupt mit medizinischem Personal in Kontakt kommen. Das System entscheidet, ob ein Notfall vorliegt, ob ein Arzttermin nötig ist oder ob im ersten Schritt eine Selbstbehandlung ausreicht.
Der Hintergrund ist nachvollziehbar: Praxen und Kliniken kämpfen mit Personalmangel. KI soll also helfen, unnötige Untersuchungen schon im Vorfeld auszusortieren.
Lesen Sie auch: Diese KI-Plattform hilft bei der Medikamentenentwicklung
Breites Einsatzspektrum
Moderne KI-Systeme sind auch in anderen Bereichen im Vormarsch: Sie können medizinische Texte analysieren, Bilddaten auswerten oder Muster in Laborwerten erkennen. Gerade bei standardisierten Aufgaben gelten sie als vielversprechend. Studien zeigen beispielsweise, dass künstliche Intelligenz Radiologen und Radiologinnen bei der Tumorerkennung unterstützen und auffällige Veränderungen auf MRT- und CT-Bildern schneller markieren kann.
Doch in allen Bereichen kommt die gleiche Schwäche zum Tragen: Die Systeme sind vollständig von den Daten abhängig, die Menschen eingeben oder erheben.
Die KI fragt nicht nach
In der Informatik gilt ein einfacher Grundsatz: „Garbage in, garbage out.“ Schlechte Eingabedaten führen zu schlechten Ergebnissen. In der Medizin kann das besonders kritisch werden.
Wenn Patienten und Patientinnen Symptome nur oberflächlich beschreiben oder wichtige Informationen weglassen, kann die KI die Risiken falsch bewerten. Schon kleine Details können medizinisch entscheidend sein: Strahlt ein Schmerz aus? Hat er sich verändert? Seit wann bestehen die Beschwerden? Welche Medikamente werden eingenommen? Gibt es Vorerkrankungen?
Viele Menschen neigen ohnehin dazu, Informationen zu vereinfachen oder zurückzuhalten. Das gilt besonders bei sensiblen Themen wie psychischen Erkrankungen, Sexualität oder Suchterkrankungen.
In der Praxis können Ärzte und Ärztinnen aktiv nachhaken und Unsicherheiten erkennen. Genau diese menschliche Ebene fehlt der KI und müsste durch andere Methoden ausgeglichen werden.
Trainingsdaten nicht auf Minderheiten ausgelegt
Hinzu kommt ein weiteres Problem: Auch die Trainingsdaten vieler KI-Systeme sind nicht ausgewogen. Wenn bestimmte Bevölkerungsgruppen in Datensätzen unterrepräsentiert sind, entstehen Verzerrungen.
So zeigen internationale Untersuchungen bereits heute, dass einige KI-Systeme Herzinfarkte bei Frauen schlechter erkennen oder Hautkrankheiten bei dunkler Hautfarbe weniger präzise diagnostizieren. Die Ursache liegt häufig darin, dass die Trainingsdaten überwiegend aus bestimmten Patientengruppen stammen.
Dadurch besteht die Gefahr, dass bestehende Ungleichheiten im Gesundheitssystem durch KI nicht reduziert, sondern automatisiert verstärkt werden.
Warum Menschen KI weniger vertrauen als Ärzten
Warum aber geben Menschen einer KI weniger Informationen preis als einem Arzt oder einer Ärztin, obwohl sie doch eigentlich bereit sind, den Chatbot zu fragen, bevor sie fachliche Hilfe suchen?
Die Würzburger Forschenden sehen einen wichtigen Grund in der sogenannten „Uniqueness Neglect“ – der Sorge, eine Maschine könne individuelle Besonderheiten ohnehin nicht verstehen. Viele Menschen haben offenbar das Gefühl, ein Algorithmus gleiche lediglich Standardschemata ab und berücksichtige persönliche Nuancen nicht – also lassen sie diese direkt weg.
Datenschutz bleibt ein sensibles Thema
In der Praxis dürften Datenschutzbedenken hinzukommen. Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt. Während das Arztgeheimnis gesellschaftlich fest verankert ist, fehlt vielen Nutzenden bei KI-Systemen ein vergleichbares Sicherheitsgefühl.
Dabei geht es nicht nur um Hackerangriffe oder Datenlecks. Viele Menschen wissen schlicht nicht, was mit ihren Angaben geschieht: Werden die Daten gespeichert? Für Trainingszwecke genutzt? Mit anderen Systemen verknüpft? Diese Unsicherheit beeinflusst unmittelbar die Bereitschaft, offen über Beschwerden zu sprechen.
Lesen Sie auch: KI kann helfen, Medikamente im Körper besser aufzulösen
Vertrauen als technische Aufgabe
Für Entwickelnde medizinischer KI entsteht daraus eine neue Herausforderung. Die Systeme müssen nicht nur technisch leistungsfähig sein, sondern auch Vertrauen erzeugen.
Fachleute sprechen zunehmend davon, dass KI „kommunikativ kompetent“ werden müsse. Systeme sollen fehlende Informationen aktiv erfragen, Unsicherheiten erklären und transparent machen, warum bestimmte Angaben wichtig sind.
Das könnte beispielsweise bedeuten, dass ein Chatbot bei Brustschmerzen gezielt nach Dauer, Ausstrahlung oder Atemnot fragt, ähnlich wie ein Arzt oder eine Ärztin im Gespräch. Ebenso wichtig ist eine verständliche Erklärung der Datennutzung. Nutzer geben sensible Informationen eher preis, wenn sie nachvollziehen können, wofür die Daten benötigt werden, und welche Schutzmechanismen existieren.
In technischer Hinsicht spielt dabei das Prinzip „Privacy by Design“ eine zentrale Rolle. Datenschutz soll nicht nachträglich ergänzt werden, sondern von Anfang an Teil der Systemarchitektur sein.
Medizinische Daten als Rohstoff der KI
Die Diskussion reicht jedoch weit über einzelne Chatbots hinaus. Denn moderne KI-Systeme benötigen enorme Datenmengen, um zuverlässig zu funktionieren.
Besonders relevant sind dabei medizinische Bilddaten wie MRT- oder CT-Aufnahmen, elektronische Patientenakten oder genetische Informationen. Viele Kliniken bitten Patienten inzwischen um die Einwilligung, solche Daten anonymisiert für KI-Trainingszwecke zu verwenden.
KI muss mit echten Daten trainiert werden
Technisch ergibt das Sinn: Je größer und vielfältiger die Datensätze sind, desto besser können Systeme seltene Muster erkennen und Diagnosen unterstützen. Gleichzeitig entsteht jedoch ein gesellschaftlicher Konflikt. Gesundheitsdaten gelten zunehmend als strategische Ressource, sowohl für Forschungseinrichtungen als auch für große Technologiekonzerne.
Mit dem geplanten „European Health Data Space“ möchte die Europäische Union die Nutzung medizinischer Daten für Forschung und KI erleichtern. Befürworter sehen darin große Chancen für Innovation und personalisierte Medizin. Kritische Stimmen warnen vor zunehmender Kommerzialisierung sensibler Patientendaten.
Die politische und ethische Debatte bei KI in der Medizin
Parallel versucht die EU, medizinische KI stärker zu regulieren. Der EU AI Act stuft viele Anwendungen im Gesundheitswesen als sogenannte Hochrisiko-Systeme ein. Für Entwickelnde gelten damit besondere Anforderungen an Transparenz, Datenqualität und menschliche Kontrolle.
Trotzdem bleiben viele Fragen offen. Wer haftet, wenn eine KI aufgrund fehlerhafter Daten eine falsche Empfehlung gibt? Der Entwickler? Die Klinik? Oder der Patient oder die Patientin selbst, weil wichtige Informationen fehlten? Lässt sich das überhaupt festlegen?
Auch ethisch entsteht ein Spannungsfeld. Einerseits könnte KI medizinische Versorgung effizienter und präziser machen. Andererseits wächst die Sorge vor automatisierten Entscheidungen über Gesundheit, Behandlung und Priorisierung von Patienten und Patientinnen.
Die zentrale Herausforderung besteht deshalb nicht nur in besserer Technik, sondern in klaren Regeln, denen eine Diskussion auf gesellschaftlicher Ebene vorausgeht.
Warum KI gute Daten braucht
Künstliche Intelligenz erkennt Krankheiten nicht „intuitiv“, sondern analysiert Muster in vorhandenen Informationen. Fehlerhafte oder unvollständige Daten wirken sich deshalb unmittelbar auf die Qualität der Ergebnisse aus.
Besonders problematisch sind:
- fehlende Angaben zu Vorerkrankungen
- ungenaue Symptom-Beschreibungen
- ausgelassene Medikamenteneinnahmen
- missverständliche Zeitangaben
- schlechte Bildqualität bei MRT- oder CT-Daten
- verzerrte Trainingsdaten („Bias“)
Ein Beitrag von: