Gehirn-Computer-Schnittstelle 10.02.2026, 12:00 Uhr

Ein Gedanke genügt: Neuer Ansatz gibt Gelähmten Kontrolle zurück

Neue Gehirn-Computer-Schnittstellen sollen menschliche Absichten erkennen statt Bewegungen. Das könnte Gelähmten mehr Kontrolle geben.

Eine Wissenschaftlerin betrachtet die virtuelle Hologrammschnittstelle vor ihren Augen und ändert die HUD-Anzeigen darauf mit einer virtuellen Wischbewegung.

Forschende wollen Maschinen nicht Befehle, sondern Ziele verstehen lassen. Ein neuer Ansatz für mehr Selbstbestimmung bei Lähmung.

Foto: Smarterpix/DCStudio

Gehirn-Computer-Schnittstellen gelten seit Jahren als Hoffnungsträger für Menschen mit schweren Lähmungen. Sie ermöglichen es, Buchstaben auszuwählen, Roboterarme zu bewegen oder digitale Geräte zu bedienen – allein über Gehirnaktivität. Technisch ist das ein großer Schritt. Im Alltag bleiben diese Systeme jedoch oft mühsam. Bewegungen wirken ruckartig. Die Bedienung verlangt hohe Konzentration. Und vor allem fehlt vielen Nutzerinnen und Nutzer das Gefühl, selbst Urheber der Handlung zu sein.

„Vor allem aber fehlt häufig das Gefühl, selbst Urheber der Handlung zu sein“, sagt Psychologe Prof. Dr. Christian Frings von der Universität Trier. Genau an diesem Punkt setzt ein neuer Denkansatz an, den Forschende aus Trier, Dresden, Amsterdam, Maastricht, Nijmegen und Kyoto nun systematisch ausarbeiten.

Handeln heißt: etwas erreichen wollen

Der Kern der Idee ist einfach: Menschen planen Handlungen nicht über einzelne Muskelbewegungen. Sie denken in Zielen. Wer eine Tasse greifen will, denkt nicht an die Beugung einzelner Finger, sondern an das Ergebnis: die Tasse in der Hand. Wer einen Raum betritt, plant nicht jeden Schritt, sondern das Ankommen.

Die Hirnforschung bestätigt das. Schon bevor sich ein Muskel bewegt, sind im Gehirn Areale aktiv, die mit Planung, Erwartung und Wahrnehmung zu tun haben. Das Gehirn bildet innere Vorhersagen darüber, was eine Handlung bewirken soll. Erst danach folgen motorische Programme.

Aus dieser Perspektive erklärt sich ein zentrales Problem heutiger Gehirn-Computer-Schnittstellen. Sie lesen meist Signale aus, die direkt mit Bewegung zu tun haben. Sie fragen also nach dem „Wie“. Das Gehirn arbeitet aber primär mit dem „Wozu“.

Warum bisherige Systeme oft unnatürlich wirken

Die meisten aktuellen Systeme koppeln motorische Hirnareale direkt an Maschinen. Nutzer*innen müssen sich etwa vorstellen, eine Hand zu bewegen, damit ein Roboterarm reagiert. Das funktioniert, ist aber kognitiv anstrengend. Die Bewegung fühlt sich fremd an, weil sie nicht dem natürlichen Planungsprozess entspricht.

„Handeln bedeutet, etwas mit einer Absicht zu tun“, erklärt Frings. „Wer einen Raum betritt, denkt nicht an einzelne Schritte, sondern daran, im Raum zu sein.“ Wird dieser Zusammenhang ignoriert, bleibt die Technik funktional, aber schwer zugänglich.

Der ideomotorische Ansatz: Absichten statt Befehle

Der neue Ansatz orientiert sich am sogenannten ideomotorischen Prinzip. Vereinfacht gesagt: Das Gehirn steuert Handlungen über die Vorstellung ihrer Wirkung. Wer sich die Wirkung vorstellt, ruft damit automatisch passende Handlungspläne ab.

Überträgt man das auf Gehirn-Computer-Schnittstellen, ergibt sich ein Perspektivwechsel. Systeme sollen nicht einzelne Bewegungen entschlüsseln, sondern die beabsichtigte Wirkung einer Handlung. Also nicht: „Bewege den Arm nach links“, sondern: „Greife das Glas“.

Das hätte mehrere Vorteile. Bewegungen könnten flüssiger werden, weil die Maschine selbst plant, wie sie ein Ziel erreicht. Hindernisse ließen sich automatisch berücksichtigen. Vor allem aber würde das Gefühl von Kontrolle steigen. Nutzerinnen und Nutzer würden nicht mehr jeden Schritt denken müssen, sondern ein Ziel vorgeben.

Intakte Hirnareale trotz Lähmung

Ein weiterer Vorteil ist medizinisch relevant. Bei vielen gelähmten Menschen sind die motorischen Bahnen geschädigt. Die Hirnareale für Planung, Vorstellung und Zielbildung bleiben jedoch oft intakt. Genau diese Areale rücken mit dem neuen Ansatz in den Fokus.

Moderne Bildgebung und maschinelles Lernen machen es inzwischen möglich, Wahrnehmungs- und Vorstellungsinhalte aus Gehirnaktivität zu rekonstruieren. Forschende konnten zeigen, dass vorgestellte Bilder oder Klänge stabile Aktivitätsmuster erzeugen, die sich auslesen lassen. Darauf bauen die neuen Konzepte auf.

Kennt ein System das Ziel, kann künstliche Intelligenz die nötigen Schritte selbst berechnen. Roboter tun das in der Industrie längst. Für Assistenzsysteme im Alltag wäre das ein entscheidender Fortschritt.

Auch interessant:

Grenzen, Risiken und offene Fragen

Ganz ohne Probleme ist der Ansatz nicht. „Nicht jede Handlung, die wir uns vorstellen, wollen wir auch ausführend“, warnt Neurowissenschaftler Prof. Dr. Christian Beste. Systeme müssen lernen, flüchtige Gedanken von echten Absichten zu unterscheiden.

Hinzu kommen ethische Fragen. Wenn Technik Absichten erkennt, stellt sich die Frage nach dem Schutz der Gedankenwelt. Auch die Verantwortung bei Fehlinterpretationen ist offen: Wer haftet, wenn ein System falsch handelt?

Die Forschenden schlagen deshalb Sicherungen vor. Etwa zusätzliche Bestätigungssignale, Zeitverzögerungen oder Abbruchmöglichkeiten. Klar ist: Technischer Fortschritt allein reicht nicht. Akzeptanz entsteht nur, wenn Nutzerinnen und Nutzer die Kontrolle behalten.

Hier geht es zur Originalpublikation

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Themen im Artikel

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.