Digitale Gesundheit 09.05.2026, 10:30 Uhr

Wenn Patienten der KI nicht alles sagen

Künstliche Intelligenz bietet großes Potenzial für die Gesundheitsversorgung. Trotzdem könnte sie scheitern. Denn wichtige Themen wie Vertrauen, Datenqualität und Ethik werden zwar diskutiert, es sind bislang aber kaum Lösungen in Sicht.

KI und Medizin

Immer mehr Menschen nutzen KI-gestützte Symptom-Checker und Gesundheits-Apps zur ersten medizinischen Einschätzung. Eine Studie der Universität Würzburg zeigt jedoch: Gegenüber künstlicher Intelligenz schildern viele ihre Beschwerden deutlich weniger ausführlich als im Gespräch mit Ärzten oder Ärztinnen.

Foto: Smarterpix/Elnur

Wer heute unter Kopfschmerzen, Fieber oder Herzrasen leidet, fragt oft zuerst das Smartphone, statt sich an einen Arzt oder an eine Ärztin zu wenden. KI-gestützte Symptom-Checker, Gesundheits-Apps und Chatbots sind längst Teil des medizinischen Alltags geworden. Sie liefern erste Einschätzungen, sortieren Beschwerden nach Dringlichkeit und sollen Patienten und Patientinnen Orientierung bieten – wie dringend ist es, einen Termin in einer Praxis zu vereinbaren?

Doch genau an dieser Schnittstelle zwischen Mensch und Maschine entsteht offenbar ein gravierendes Problem. Eine aktuelle Studie der Universität Würzburg zeigt, dass Menschen gegenüber künstlicher Intelligenz (KI) weniger ausführlich über ihre Beschwerden sprechen als gegenüber dem medizinischen Fachpersonal.

Lesen Sie auch: CAR-T-Zelltherapie: Wie KI die Krebsbehandlung skalierbar machen soll

Top Stellenangebote

Zur Jobbörse
Clees Wohnimmobilien GmbH & Co. KG-Firmenlogo
Bauingenieur (m/w/d) Clees Wohnimmobilien GmbH & Co. KG
Düsseldorf Zum Job 
Schleifring GmbH-Firmenlogo
Head of Sales and Project Management (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
Immobilien Management Essen GmbH (IME)-Firmenlogo
(Senior) Projektkoordinator (m/w/d) Hochbau & Stadtentwicklung Immobilien Management Essen GmbH (IME)
RINGSPANN GmbH-Firmenlogo
Vertriebsingenieur (m/w/d) als Produkt-Account-Manager Antriebskomponenten/Bremsen RINGSPANN GmbH
Bad Homburg Zum Job 
Crawford & Company (Deutschland) GmbH-Firmenlogo
Technical Expert / Sachverständiger (w/m/d) Bereich Global Technical Services Crawford & Company (Deutschland) GmbH
verschiedene Einsatzorte Zum Job 
GVE Grundstücksverwaltung Stadt Essen GmbH-Firmenlogo
Projektleiter (m/w/d) Schulbau GVE Grundstücksverwaltung Stadt Essen GmbH
KLEBL GmbH-Firmenlogo
Projektleiter (m/w/d) für Hoch- und Schlüsselfertigbau KLEBL GmbH
Raum Berlin-Brandenburg Zum Job 
KLEBL GmbH-Firmenlogo
Projektleiter (m/w/d) für Hoch- und Schlüsselfertigbau KLEBL GmbH
Frankfurt Zum Job 
KLEBL GmbH-Firmenlogo
Kalkulator (m/w/d) im Bereich Hochbau- und Schlüsselfertigbau KLEBL GmbH
Berlin-Brandenburg Zum Job 
KLEBL GmbH-Firmenlogo
Bauleiter (m/w/d) im Hausbau KLEBL GmbH
Neumarkt Zum Job 
Titan Umreifungstechnik GmbH & Co. KG-Firmenlogo
Technischer Einkäufer (m/w/d/) Titan Umreifungstechnik GmbH & Co. KG
Schwelm Zum Job 
Excelitas Deutschland GmbH-Firmenlogo
Qualitätsingenieur (w/m/d) Produktentwicklung Excelitas Deutschland GmbH
Feldkirchen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur in der Bauwerksprüfung (w/m/d) Die Autobahn GmbH des Bundes
Würzburg Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Abteilungsleitung Umweltplanung (w/m/d) Die Autobahn GmbH des Bundes
Schleifring GmbH-Firmenlogo
Konstruktionsingenieur mit Projektverantwortung (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
KLN Ultraschall AG-Firmenlogo
Strategischer Einkäufer im Sondermaschinenbau (m/w/d) KLN Ultraschall AG
Heppenheim (Bergstraße) Zum Job 
Max Bögl Transport und Geräte GmbH & Co. KG-Firmenlogo
Prozesskoordinator (m/w/d) - Produktionstechnik Max Bögl Transport und Geräte GmbH & Co. KG
Sengenthal Zum Job 
Hochschule Emden/Leer-Firmenlogo
Professur (m/w/d) für Elektrische Energietechnik Hochschule Emden/Leer
Beckhoff Automation GmbH & Co. KG-Firmenlogo
Technischer Redakteur (m/w/d) für Maschinenbau Beckhoff Automation GmbH & Co. KG
Herzebrock-Clarholz Zum Job 
Hamburger Hochbahn AG-Firmenlogo
Bauingenieur / Projektingenieur Ingenieurbau (w/m/d) Hamburger Hochbahn AG
Hamburg Zum Job 

Weniger Details für die KI

Die Forschenden ließen 500 Teilnehmende simulierte Symptomberichte verfassen, etwa zu ungewöhnlichen Kopfschmerzen oder grippeähnlichen Beschwerden. Im Vorfeld erzählten sie einigen Probanden, ihre Angaben würden von Ärzten und Ärztinnen gelesen. Andere ließen sie in dem Glauben, ein KI-System würde die Daten bewerten. Das Ergebnis fiel deutlich aus. Wer meinte, mit einer Maschine zu kommunizieren, formulierte kürzer, vager und weniger detailreich.

Gerade in der Medizin kann das problematisch sein. Denn selbst hoch entwickelte KI-Systeme sind darauf angewiesen, möglichst vollständige Informationen zu erhalten. Fehlen wichtige Angaben, steigt das Risiko falscher Einschätzungen.

KI als erste medizinische Anlaufstelle

Die Studie trifft einen Nerv der Zeit. Denn künstliche Intelligenz hält in vielen Bereichen zunehmend Einzug in die medizinische Versorgung. Unter anderem experimentieren Kliniken, Versicherungen und Telemedizin-Anbieter mit automatisierten Ersteinschätzungen.

Besonders relevant ist dabei das Konzept der sogenannten „Self-Triage“. Das heißt, Patienten und Patientinnen geben ihre Symptome zunächst digital ein, bevor sie überhaupt mit medizinischem Personal in Kontakt kommen. Das System entscheidet, ob ein Notfall vorliegt, ob ein Arzttermin nötig ist oder ob im ersten Schritt eine Selbstbehandlung ausreicht.

Der Hintergrund ist nachvollziehbar: Praxen und Kliniken kämpfen mit Personalmangel. KI soll also helfen, unnötige Untersuchungen schon im Vorfeld auszusortieren.

Lesen Sie auch: Diese KI-Plattform hilft bei der Medikamentenentwicklung

Breites Einsatzspektrum

Moderne KI-Systeme sind auch in anderen Bereichen im Vormarsch: Sie können medizinische Texte analysieren, Bilddaten auswerten oder Muster in Laborwerten erkennen. Gerade bei standardisierten Aufgaben gelten sie als vielversprechend. Studien zeigen beispielsweise, dass künstliche Intelligenz Radiologen und Radiologinnen bei der Tumorerkennung unterstützen und auffällige Veränderungen auf MRT- und CT-Bildern schneller markieren kann.

Doch in allen Bereichen kommt die gleiche Schwäche zum Tragen: Die Systeme sind vollständig von den Daten abhängig, die Menschen eingeben oder erheben.

Die KI fragt nicht nach

In der Informatik gilt ein einfacher Grundsatz: „Garbage in, garbage out.“ Schlechte Eingabedaten führen zu schlechten Ergebnissen. In der Medizin kann das besonders kritisch werden.

Wenn Patienten und Patientinnen Symptome nur oberflächlich beschreiben oder wichtige Informationen weglassen, kann die KI die Risiken falsch bewerten. Schon kleine Details können medizinisch entscheidend sein: Strahlt ein Schmerz aus? Hat er sich verändert? Seit wann bestehen die Beschwerden? Welche Medikamente werden eingenommen? Gibt es Vorerkrankungen?

Viele Menschen neigen ohnehin dazu, Informationen zu vereinfachen oder zurückzuhalten. Das gilt besonders bei sensiblen Themen wie psychischen Erkrankungen, Sexualität oder Suchterkrankungen.

In der Praxis können Ärzte und Ärztinnen aktiv nachhaken und Unsicherheiten erkennen. Genau diese menschliche Ebene fehlt der KI und müsste durch andere Methoden ausgeglichen werden.

Trainingsdaten nicht auf Minderheiten ausgelegt

Hinzu kommt ein weiteres Problem: Auch die Trainingsdaten vieler KI-Systeme sind nicht ausgewogen. Wenn bestimmte Bevölkerungsgruppen in Datensätzen unterrepräsentiert sind, entstehen Verzerrungen.

So zeigen internationale Untersuchungen bereits heute, dass einige KI-Systeme Herzinfarkte bei Frauen schlechter erkennen oder Hautkrankheiten bei dunkler Hautfarbe weniger präzise diagnostizieren. Die Ursache liegt häufig darin, dass die Trainingsdaten überwiegend aus bestimmten Patientengruppen stammen.

Dadurch besteht die Gefahr, dass bestehende Ungleichheiten im Gesundheitssystem durch KI nicht reduziert, sondern automatisiert verstärkt werden.

Warum Menschen KI weniger vertrauen als Ärzten

Warum aber geben Menschen einer KI weniger Informationen preis als einem Arzt oder einer Ärztin, obwohl sie doch eigentlich bereit sind, den Chatbot zu fragen, bevor sie fachliche Hilfe suchen?

Die Würzburger Forschenden sehen einen wichtigen Grund in der sogenannten „Uniqueness Neglect“ – der Sorge, eine Maschine könne individuelle Besonderheiten ohnehin nicht verstehen. Viele Menschen haben offenbar das Gefühl, ein Algorithmus gleiche lediglich Standardschemata ab und berücksichtige persönliche Nuancen nicht – also lassen sie diese direkt weg.

Datenschutz bleibt ein sensibles Thema

In der Praxis dürften Datenschutzbedenken hinzukommen. Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt. Während das Arztgeheimnis gesellschaftlich fest verankert ist, fehlt vielen Nutzenden bei KI-Systemen ein vergleichbares Sicherheitsgefühl.

Dabei geht es nicht nur um Hackerangriffe oder Datenlecks. Viele Menschen wissen schlicht nicht, was mit ihren Angaben geschieht: Werden die Daten gespeichert? Für Trainingszwecke genutzt? Mit anderen Systemen verknüpft? Diese Unsicherheit beeinflusst unmittelbar die Bereitschaft, offen über Beschwerden zu sprechen.

Lesen Sie auch: KI kann helfen, Medikamente im Körper besser aufzulösen

Vertrauen als technische Aufgabe

Für Entwickelnde medizinischer KI entsteht daraus eine neue Herausforderung. Die Systeme müssen nicht nur technisch leistungsfähig sein, sondern auch Vertrauen erzeugen.

Fachleute sprechen zunehmend davon, dass KI „kommunikativ kompetent“ werden müsse. Systeme sollen fehlende Informationen aktiv erfragen, Unsicherheiten erklären und transparent machen, warum bestimmte Angaben wichtig sind.

Das könnte beispielsweise bedeuten, dass ein Chatbot bei Brustschmerzen gezielt nach Dauer, Ausstrahlung oder Atemnot fragt, ähnlich wie ein Arzt oder eine Ärztin im Gespräch. Ebenso wichtig ist eine verständliche Erklärung der Datennutzung. Nutzer geben sensible Informationen eher preis, wenn sie nachvollziehen können, wofür die Daten benötigt werden, und welche Schutzmechanismen existieren.

In technischer Hinsicht spielt dabei das Prinzip „Privacy by Design“ eine zentrale Rolle. Datenschutz soll nicht nachträglich ergänzt werden, sondern von Anfang an Teil der Systemarchitektur sein.

Medizinische Daten als Rohstoff der KI

Die Diskussion reicht jedoch weit über einzelne Chatbots hinaus. Denn moderne KI-Systeme benötigen enorme Datenmengen, um zuverlässig zu funktionieren.

Besonders relevant sind dabei medizinische Bilddaten wie MRT- oder CT-Aufnahmen, elektronische Patientenakten oder genetische Informationen. Viele Kliniken bitten Patienten inzwischen um die Einwilligung, solche Daten anonymisiert für KI-Trainingszwecke zu verwenden.

KI muss mit echten Daten trainiert werden

Technisch ergibt das Sinn: Je größer und vielfältiger die Datensätze sind, desto besser können Systeme seltene Muster erkennen und Diagnosen unterstützen. Gleichzeitig entsteht jedoch ein gesellschaftlicher Konflikt. Gesundheitsdaten gelten zunehmend als strategische Ressource, sowohl für Forschungseinrichtungen als auch für große Technologiekonzerne.

Mit dem geplanten „European Health Data Space“ möchte die Europäische Union die Nutzung medizinischer Daten für Forschung und KI erleichtern. Befürworter sehen darin große Chancen für Innovation und personalisierte Medizin. Kritische Stimmen warnen vor zunehmender Kommerzialisierung sensibler Patientendaten.

Die politische und ethische Debatte bei KI in der Medizin

Parallel versucht die EU, medizinische KI stärker zu regulieren. Der EU AI Act stuft viele Anwendungen im Gesundheitswesen als sogenannte Hochrisiko-Systeme ein. Für Entwickelnde gelten damit besondere Anforderungen an Transparenz, Datenqualität und menschliche Kontrolle.

Trotzdem bleiben viele Fragen offen. Wer haftet, wenn eine KI aufgrund fehlerhafter Daten eine falsche Empfehlung gibt? Der Entwickler? Die Klinik? Oder der Patient oder die Patientin selbst, weil wichtige Informationen fehlten? Lässt sich das überhaupt festlegen?

Auch ethisch entsteht ein Spannungsfeld. Einerseits könnte KI medizinische Versorgung effizienter und präziser machen. Andererseits wächst die Sorge vor automatisierten Entscheidungen über Gesundheit, Behandlung und Priorisierung von Patienten und Patientinnen.

Die zentrale Herausforderung besteht deshalb nicht nur in besserer Technik, sondern in klaren Regeln, denen eine Diskussion auf gesellschaftlicher Ebene vorausgeht.

Warum KI gute Daten braucht

Künstliche Intelligenz erkennt Krankheiten nicht „intuitiv“, sondern analysiert Muster in vorhandenen Informationen. Fehlerhafte oder unvollständige Daten wirken sich deshalb unmittelbar auf die Qualität der Ergebnisse aus.

Besonders problematisch sind:

  • fehlende Angaben zu Vorerkrankungen
  • ungenaue Symptom-Beschreibungen
  • ausgelassene Medikamenteneinnahmen
  • missverständliche Zeitangaben
  • schlechte Bildqualität bei MRT- oder CT-Daten
  • verzerrte Trainingsdaten („Bias“)

Ein Beitrag von:

  • Julia Klinkusch

    Julia Klinkusch ist seit 2008 selbstständige Journalistin und hat sich auf Wissenschafts- und Gesundheitsthemen spezialisiert. Seit 2010 gehört sie zum Team von Content Qualitäten. Ihre Themen: Klima, KI, Technik, Umwelt, Medizin/Medizintechnik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.