Ein Gedanke genügt: Neuer Ansatz gibt Gelähmten Kontrolle zurück
Neue Gehirn-Computer-Schnittstellen sollen menschliche Absichten erkennen statt Bewegungen. Das könnte Gelähmten mehr Kontrolle geben.
Forschende wollen Maschinen nicht Befehle, sondern Ziele verstehen lassen. Ein neuer Ansatz für mehr Selbstbestimmung bei Lähmung.
Foto: Smarterpix/DCStudio
Gehirn-Computer-Schnittstellen gelten seit Jahren als Hoffnungsträger für Menschen mit schweren Lähmungen. Sie ermöglichen es, Buchstaben auszuwählen, Roboterarme zu bewegen oder digitale Geräte zu bedienen – allein über Gehirnaktivität. Technisch ist das ein großer Schritt. Im Alltag bleiben diese Systeme jedoch oft mühsam. Bewegungen wirken ruckartig. Die Bedienung verlangt hohe Konzentration. Und vor allem fehlt vielen Nutzerinnen und Nutzer das Gefühl, selbst Urheber der Handlung zu sein.
„Vor allem aber fehlt häufig das Gefühl, selbst Urheber der Handlung zu sein“, sagt Psychologe Prof. Dr. Christian Frings von der Universität Trier. Genau an diesem Punkt setzt ein neuer Denkansatz an, den Forschende aus Trier, Dresden, Amsterdam, Maastricht, Nijmegen und Kyoto nun systematisch ausarbeiten.
Inhaltsverzeichnis
Handeln heißt: etwas erreichen wollen
Der Kern der Idee ist einfach: Menschen planen Handlungen nicht über einzelne Muskelbewegungen. Sie denken in Zielen. Wer eine Tasse greifen will, denkt nicht an die Beugung einzelner Finger, sondern an das Ergebnis: die Tasse in der Hand. Wer einen Raum betritt, plant nicht jeden Schritt, sondern das Ankommen.
Die Hirnforschung bestätigt das. Schon bevor sich ein Muskel bewegt, sind im Gehirn Areale aktiv, die mit Planung, Erwartung und Wahrnehmung zu tun haben. Das Gehirn bildet innere Vorhersagen darüber, was eine Handlung bewirken soll. Erst danach folgen motorische Programme.
Aus dieser Perspektive erklärt sich ein zentrales Problem heutiger Gehirn-Computer-Schnittstellen. Sie lesen meist Signale aus, die direkt mit Bewegung zu tun haben. Sie fragen also nach dem „Wie“. Das Gehirn arbeitet aber primär mit dem „Wozu“.
Warum bisherige Systeme oft unnatürlich wirken
Die meisten aktuellen Systeme koppeln motorische Hirnareale direkt an Maschinen. Nutzer*innen müssen sich etwa vorstellen, eine Hand zu bewegen, damit ein Roboterarm reagiert. Das funktioniert, ist aber kognitiv anstrengend. Die Bewegung fühlt sich fremd an, weil sie nicht dem natürlichen Planungsprozess entspricht.
„Handeln bedeutet, etwas mit einer Absicht zu tun“, erklärt Frings. „Wer einen Raum betritt, denkt nicht an einzelne Schritte, sondern daran, im Raum zu sein.“ Wird dieser Zusammenhang ignoriert, bleibt die Technik funktional, aber schwer zugänglich.
Der ideomotorische Ansatz: Absichten statt Befehle
Der neue Ansatz orientiert sich am sogenannten ideomotorischen Prinzip. Vereinfacht gesagt: Das Gehirn steuert Handlungen über die Vorstellung ihrer Wirkung. Wer sich die Wirkung vorstellt, ruft damit automatisch passende Handlungspläne ab.
Überträgt man das auf Gehirn-Computer-Schnittstellen, ergibt sich ein Perspektivwechsel. Systeme sollen nicht einzelne Bewegungen entschlüsseln, sondern die beabsichtigte Wirkung einer Handlung. Also nicht: „Bewege den Arm nach links“, sondern: „Greife das Glas“.
Das hätte mehrere Vorteile. Bewegungen könnten flüssiger werden, weil die Maschine selbst plant, wie sie ein Ziel erreicht. Hindernisse ließen sich automatisch berücksichtigen. Vor allem aber würde das Gefühl von Kontrolle steigen. Nutzerinnen und Nutzer würden nicht mehr jeden Schritt denken müssen, sondern ein Ziel vorgeben.
Intakte Hirnareale trotz Lähmung
Ein weiterer Vorteil ist medizinisch relevant. Bei vielen gelähmten Menschen sind die motorischen Bahnen geschädigt. Die Hirnareale für Planung, Vorstellung und Zielbildung bleiben jedoch oft intakt. Genau diese Areale rücken mit dem neuen Ansatz in den Fokus.
Moderne Bildgebung und maschinelles Lernen machen es inzwischen möglich, Wahrnehmungs- und Vorstellungsinhalte aus Gehirnaktivität zu rekonstruieren. Forschende konnten zeigen, dass vorgestellte Bilder oder Klänge stabile Aktivitätsmuster erzeugen, die sich auslesen lassen. Darauf bauen die neuen Konzepte auf.
Kennt ein System das Ziel, kann künstliche Intelligenz die nötigen Schritte selbst berechnen. Roboter tun das in der Industrie längst. Für Assistenzsysteme im Alltag wäre das ein entscheidender Fortschritt.
Grenzen, Risiken und offene Fragen
Ganz ohne Probleme ist der Ansatz nicht. „Nicht jede Handlung, die wir uns vorstellen, wollen wir auch ausführend“, warnt Neurowissenschaftler Prof. Dr. Christian Beste. Systeme müssen lernen, flüchtige Gedanken von echten Absichten zu unterscheiden.
Hinzu kommen ethische Fragen. Wenn Technik Absichten erkennt, stellt sich die Frage nach dem Schutz der Gedankenwelt. Auch die Verantwortung bei Fehlinterpretationen ist offen: Wer haftet, wenn ein System falsch handelt?
Die Forschenden schlagen deshalb Sicherungen vor. Etwa zusätzliche Bestätigungssignale, Zeitverzögerungen oder Abbruchmöglichkeiten. Klar ist: Technischer Fortschritt allein reicht nicht. Akzeptanz entsteht nur, wenn Nutzerinnen und Nutzer die Kontrolle behalten.
Ein Beitrag von: