Früherkennung durch Sprache – KI testet auf Parkinson in Sekunden
KI erkennt Parkinson durch Sprachmuster – schnell, webbasiert und ohne Arztbesuch. Wie das System funktioniert, lesen Sie hier.

Ein Amazon-Echo-Lautsprecher: Künftig könnten Sprachassistenten wie Alexa dabei helfen, frühe Anzeichen von Parkinson anhand der Stimme zu erkennen.
Foto: Smarterpix / fabiomax
Die Stimme verrät mehr, als viele ahnen. Forschende der University of Rochester haben ein System entwickelt, das genau hier ansetzt: bei der gesprochenen Sprache. Mithilfe künstlicher Intelligenz (KI) lassen sich frühe Hinweise auf Parkinson erkennen – ganz ohne Arztpraxis. Der Gedanke dahinter: Wenn viele Menschen ohnehin täglich mit Sprachassistenten wie Amazon Alexa sprechen, warum sollte man diese Schnittstellen nicht auch für medizinisches Screening nutzen?
Inhaltsverzeichnis
Sprache als Frühwarnzeichen
Parkinson gilt als eine der am schnellsten fortschreitenden neurologischen Erkrankungen weltweit. Die Symptome beginnen oft schleichend. Viele Betroffene bemerken anfangs nur eine veränderte Stimme, undeutliche Aussprache oder ungewohnte Pausen beim Sprechen. Laut Studien zeigen rund 89 % aller Patient*innen im Verlauf der Krankheit sprachliche Auffälligkeiten.
Daran knüpft das neue KI-gestützte Testverfahren an. Statt aufwendiger Untersuchungen oder Kliniktermine reicht ein kurzer, standardisierter Satz. Die Aussagekraft ist erstaunlich hoch: Fast 86 % der getesteten Sprachaufnahmen konnte das System korrekt bewerten.
Ein Satz – viele Hinweise
Im Zentrum steht ein sogenanntes Pangramm – ein Satz, der alle Buchstaben des Alphabets enthält. Nutzer*innen lesen laut vor: “The quick brown fox jumps over the lazy dog. The dog wakes up and follows the fox into the forest, but again the quick brown fox jumps over the lazy dog.”
Das System analysiert die Sprachaufnahmen in Sekundenschnelle. Es erkennt feine Unterschiede im Klangbild – etwa beim Atmen, bei Sprechpausen oder bei der Betonung einzelner Laute. Solche Merkmale verändern sich bei Parkinson häufig schon früh.
„Beispielsweise unterscheiden sich die Art und Weise, wie jemand mit Parkinson Laute ausspricht, pausiert, atmet und unbeabsichtigt unverständliche Merkmale hinzufügt, von denen einer Person ohne Parkinson“, erklärt Abdelrahman Abdelkader, Masterstudent und Mitautor der Studie.
KI aus dem Alltag
Die Forschenden trainierten ihr Modell mit mehr als 1.800 Sprachaufnahmen von über 1.300 Menschen – teils mit, teils ohne Parkinson-Diagnose. Die Daten stammen aus verschiedenen Quellen: Aufnahmen zu Hause, in Kliniken und in spezialisierten Parkinson-Zentren.
Die Technik dahinter basiert auf sogenannten „semi-supervised“ Sprachmodellen. Genutzt wurden unter anderem Wav2Vec 2.0 von Meta und WavLM von Microsoft. Diese Modelle wurden ursprünglich für Spracherkennung entwickelt. Für die Parkinson-Analyse wurden sie speziell angepasst.
Ein zentrales Element ist die sogenannte „projektionbasierte Fusion“. Statt nur einzelne Ergebnisse der Modelle zu kombinieren, wird ein Modell in den Merkmalsraum eines anderen überführt. So entstehen präzisere Vorhersagen – bei deutlich weniger unnötigen Daten.
Alexa als Türöffner?
Professor Ehsan Hoque, Mitinitiator der Studie, sieht großes Potenzial: „Mit Zustimmung der Nutzer könnten weit verbreitete sprachbasierte Schnittstellen wie Amazon Alexa oder Google Home potenziell dazu beitragen, dass Menschen erkennen, ob sie weitere Hilfe benötigen.“
Für viele Menschen in ländlichen Regionen wäre das ein enormer Fortschritt. Denn oft fehlt dort der Zugang zu spezialisierten Neurolog*innen. Ein sprachbasiertes Screening könnte helfen, Unsicherheiten zu verringern – und im Zweifelsfall eine ärztliche Untersuchung anstoßen.
Ein solches System würde keine Diagnose ersetzen, sondern vielmehr als Vorfilter dienen. Die Forschenden selbst betonen, dass jede Ausgabe des Tools als Hinweis zu verstehen ist – nicht als Urteil. Ein Warnhinweis sei zwingend notwendig: „Keine Diagnose – nur ein Hinweis.“
Grenzen des Systems
Trotz der hohen Genauigkeit gibt es Schwächen. Besonders ältere Menschen – etwa Frauen über 72 oder Männer zwischen 51 und 72 Jahren – wurden vom System häufiger falsch eingeschätzt. Der Grund dafür könnten altersbedingte Veränderungen der Stimme sein, die für die KI wie Parkinson klingen.
Zudem liegt der Anteil falsch-negativer Einschätzungen bei rund 25 %. Heißt: In einem Viertel der Fälle wird Parkinson nicht erkannt, obwohl es vorliegt. Die Ursache liegt möglicherweise in der Zusammensetzung des Datensatzes. Nur etwa 30 % der Teilnehmenden hatten tatsächlich Parkinson. Besser ausbalancierte Trainingsdaten könnten die Quote senken.
Ausblick: Alltagserkennung per App?
Derzeit läuft der Test webbasiert. Nutzer*innen lesen den Satz über das Mikrofon eines Computers ein. Die Daten werden nach der Analyse gelöscht. In Zukunft könnte eine App diese Funktion übernehmen – vielleicht sogar mit passiver Auswertung von Alltagssprache.
Langfristig planen die Entwickler*innen ein System, das nicht nur Stimme, sondern auch Mimik und Bewegungsmuster analysiert. Erste Versuche mit Video- und Audio-Daten zeigen, dass eine solche Kombination die Erkennungsgenauigkeit weiter steigern könnte.
Ein Beitrag von: