Amazon Alexa und Co. 24.07.2025, 14:00 Uhr

Früherkennung durch Sprache – KI testet auf Parkinson in Sekunden

KI erkennt Parkinson durch Sprachmuster – schnell, webbasiert und ohne Arztbesuch. Wie das System funktioniert, lesen Sie hier.

Amazon Echo Lautsprecher

Ein Amazon-Echo-Lautsprecher: Künftig könnten Sprachassistenten wie Alexa dabei helfen, frühe Anzeichen von Parkinson anhand der Stimme zu erkennen.

Foto: Smarterpix / fabiomax

Die Stimme verrät mehr, als viele ahnen. Forschende der University of Rochester haben ein System entwickelt, das genau hier ansetzt: bei der gesprochenen Sprache. Mithilfe künstlicher Intelligenz (KI) lassen sich frühe Hinweise auf Parkinson erkennen – ganz ohne Arztpraxis. Der Gedanke dahinter: Wenn viele Menschen ohnehin täglich mit Sprachassistenten wie Amazon Alexa sprechen, warum sollte man diese Schnittstellen nicht auch für medizinisches Screening nutzen?

Sprache als Frühwarnzeichen

Parkinson gilt als eine der am schnellsten fortschreitenden neurologischen Erkrankungen weltweit. Die Symptome beginnen oft schleichend. Viele Betroffene bemerken anfangs nur eine veränderte Stimme, undeutliche Aussprache oder ungewohnte Pausen beim Sprechen. Laut Studien zeigen rund 89 % aller Patient*innen im Verlauf der Krankheit sprachliche Auffälligkeiten.

Daran knüpft das neue KI-gestützte Testverfahren an. Statt aufwendiger Untersuchungen oder Kliniktermine reicht ein kurzer, standardisierter Satz. Die Aussagekraft ist erstaunlich hoch: Fast 86 % der getesteten Sprachaufnahmen konnte das System korrekt bewerten.

Stellenangebote im Bereich Medizintechnik, Biotechnik

Medizintechnik, Biotechnik Jobs
B. Braun Melsungen AG-Firmenlogo
R&D Manager (w/m/d) B. Braun Melsungen AG
Melsungen Zum Job 
Hochschule Pforzheim-Firmenlogo
Professur (m/w/d) (W2) Biomechanik und Technische Mechanik Hochschule Pforzheim
Pforzheim Zum Job 
B. Braun Melsungen AG-Firmenlogo
R&D Manager (w/m/d) B. Braun Melsungen AG
Melsungen Zum Job 
Hochschule Pforzheim-Firmenlogo
Professur (m/w/d) (W2) Biomechanik und Technische Mechanik Hochschule Pforzheim
Pforzheim Zum Job 
B. Braun Melsungen AG-Firmenlogo
R&D Manager (w/m/d) B. Braun Melsungen AG
Melsungen Zum Job 
Hochschule Pforzheim-Firmenlogo
Professur (m/w/d) (W2) Biomechanik und Technische Mechanik Hochschule Pforzheim
Pforzheim Zum Job 

Ein Satz – viele Hinweise

Im Zentrum steht ein sogenanntes Pangramm – ein Satz, der alle Buchstaben des Alphabets enthält. Nutzer*innen lesen laut vor: “The quick brown fox jumps over the lazy dog. The dog wakes up and follows the fox into the forest, but again the quick brown fox jumps over the lazy dog.”

Das System analysiert die Sprachaufnahmen in Sekundenschnelle. Es erkennt feine Unterschiede im Klangbild – etwa beim Atmen, bei Sprechpausen oder bei der Betonung einzelner Laute. Solche Merkmale verändern sich bei Parkinson häufig schon früh.

„Beispielsweise unterscheiden sich die Art und Weise, wie jemand mit Parkinson Laute ausspricht, pausiert, atmet und unbeabsichtigt unverständliche Merkmale hinzufügt, von denen einer Person ohne Parkinson“, erklärt Abdelrahman Abdelkader, Masterstudent und Mitautor der Studie.

KI aus dem Alltag

Die Forschenden trainierten ihr Modell mit mehr als 1.800 Sprachaufnahmen von über 1.300 Menschen – teils mit, teils ohne Parkinson-Diagnose. Die Daten stammen aus verschiedenen Quellen: Aufnahmen zu Hause, in Kliniken und in spezialisierten Parkinson-Zentren.

Die Technik dahinter basiert auf sogenannten „semi-supervised“ Sprachmodellen. Genutzt wurden unter anderem Wav2Vec 2.0 von Meta und WavLM von Microsoft. Diese Modelle wurden ursprünglich für Spracherkennung entwickelt. Für die Parkinson-Analyse wurden sie speziell angepasst.

Ein zentrales Element ist die sogenannte „projektionbasierte Fusion“. Statt nur einzelne Ergebnisse der Modelle zu kombinieren, wird ein Modell in den Merkmalsraum eines anderen überführt. So entstehen präzisere Vorhersagen – bei deutlich weniger unnötigen Daten.

Alexa als Türöffner?

Professor Ehsan Hoque, Mitinitiator der Studie, sieht großes Potenzial: „Mit Zustimmung der Nutzer könnten weit verbreitete sprachbasierte Schnittstellen wie Amazon Alexa oder Google Home potenziell dazu beitragen, dass Menschen erkennen, ob sie weitere Hilfe benötigen.“

Für viele Menschen in ländlichen Regionen wäre das ein enormer Fortschritt. Denn oft fehlt dort der Zugang zu spezialisierten Neurolog*innen. Ein sprachbasiertes Screening könnte helfen, Unsicherheiten zu verringern – und im Zweifelsfall eine ärztliche Untersuchung anstoßen.

Auch interessant:
Direkt ins Gehirn: Wirkstoffabgabe durch Ultraschall und Mikroblasen
Behandlung von Alzheimer, Parkinson und Hirntumoren

Direkt ins Gehirn: Wirkstoffabgabe durch Ultraschall und Mikroblasen

Schützt alter Kaffeesatz vor Parkinson?
Rekarbonisierung von Kaffeesäure

Schützt alter Kaffeesatz vor Parkinson?

Ein solches System würde keine Diagnose ersetzen, sondern vielmehr als Vorfilter dienen. Die Forschenden selbst betonen, dass jede Ausgabe des Tools als Hinweis zu verstehen ist – nicht als Urteil. Ein Warnhinweis sei zwingend notwendig: „Keine Diagnose – nur ein Hinweis.“

Grenzen des Systems

Trotz der hohen Genauigkeit gibt es Schwächen. Besonders ältere Menschen – etwa Frauen über 72 oder Männer zwischen 51 und 72 Jahren – wurden vom System häufiger falsch eingeschätzt. Der Grund dafür könnten altersbedingte Veränderungen der Stimme sein, die für die KI wie Parkinson klingen.

Zudem liegt der Anteil falsch-negativer Einschätzungen bei rund 25 %. Heißt: In einem Viertel der Fälle wird Parkinson nicht erkannt, obwohl es vorliegt. Die Ursache liegt möglicherweise in der Zusammensetzung des Datensatzes. Nur etwa 30 % der Teilnehmenden hatten tatsächlich Parkinson. Besser ausbalancierte Trainingsdaten könnten die Quote senken.

Ausblick: Alltagserkennung per App?

Derzeit läuft der Test webbasiert. Nutzer*innen lesen den Satz über das Mikrofon eines Computers ein. Die Daten werden nach der Analyse gelöscht. In Zukunft könnte eine App diese Funktion übernehmen – vielleicht sogar mit passiver Auswertung von Alltagssprache.

Langfristig planen die Entwickler*innen ein System, das nicht nur Stimme, sondern auch Mimik und Bewegungsmuster analysiert. Erste Versuche mit Video- und Audio-Daten zeigen, dass eine solche Kombination die Erkennungsgenauigkeit weiter steigern könnte.

Hier geht es zur Originalpublikation

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.