Dank Funk und KI: Autonome Autos sehen jetzt um die Ecke
Autonome Fahrzeuge erfassen jetzt Personen hinter Wänden. Radiowellen und KI liefern 3D-Daten außerhalb der Sichtlinie.
Funk und KI lassen autonome Autos Gefahren hinter Ecken erkennen. Ein neues System ergänzt LiDAR und erhöht die Reaktionszeit.
Foto: picture alliance / Westend61 | Serjunco
Autonome Systeme erfassen ihre Umgebung heute mit Kameras, Radar und LiDAR. Doch alle diese Sensoren haben eine gemeinsame Schwäche: Sie sehen nur, was direkt im Sichtfeld liegt. Kommt ein Mensch hinter einer Ecke hervor, reagiert das System erst, wenn es ihn optisch erfasst. Das kostet Zeit – und im Zweifel Sicherheit.
Ingenieurinnen und Ingenieure der University of Pennsylvania wollen das ändern. Ihr System „HoloRadar“ nutzt Funkwellen und künstliche Intelligenz, um dreidimensionale Szenen außerhalb der direkten Sichtlinie zu rekonstruieren. Vorgestellt wurde die Arbeit auf der NeurIPS, einer der wichtigsten Konferenzen für maschinelles Lernen.
Inhaltsverzeichnis
Warum Funkwellen um Ecken kommen
Der Ansatz wirkt zunächst widersprüchlich. Radiowellen besitzen deutlich längere Wellenlängen als sichtbares Licht. Klassisch gilt das als Nachteil, weil die räumliche Auflösung sinkt. Genau diese Eigenschaft macht sich HoloRadar jedoch zunutze.
„Da Radiowellen so viel größer sind als die winzigen Oberflächenunterschiede in Wänden“, sagt Haowen Lai, „werden diese Oberflächen effektiv zu Spiegeln, die Radiosignale auf vorhersehbare Weise reflektieren.“
Glatt wirkende Flächen wie Wände, Böden oder Decken streuen Funk nicht chaotisch, sondern reflektieren ihn gerichtet. Signale können so um Ecken „gebogen“ werden. Ein Roboter empfängt die zurückkehrenden Echos und nutzt sie, um verborgene Bereiche rechnerisch zu rekonstruieren.
Lai beschreibt das anschaulich: „Da HoloRadar Radiowellen verwendet, wird die Umgebung selbst zu einem Spiegel, ohne dass die Umgebung tatsächlich verändert werden muss.“
Mehr als klassische NLOS-Verfahren
Nicht-direkte Sicht („Non-Line-of-Sight“, NLOS) ist kein neues Forschungsfeld. Bisherige Systeme arbeiteten meist mit sichtbarem Licht. Sie analysierten Schattenwürfe oder schwache indirekte Reflexionen. Solche Verfahren hängen stark von Beleuchtung und Oberflächen ab. Dunkelheit oder wechselnde Lichtverhältnisse verschlechtern die Ergebnisse deutlich.
Funkbasierte Ansätze existierten ebenfalls. Sie nutzten jedoch häufig große, mechanisch bewegte Antennen oder langsame Scanverfahren. Für mobile Roboter oder Fahrzeuge war das kaum praktikabel. „HoloRadar wurde für den Einsatz in Umgebungen entwickelt, in denen Roboter tatsächlich arbeiten“, sagt Mingmin Zhao. „Dieses System ist mobil, läuft in Echtzeit und ist nicht auf kontrollierte Beleuchtung angewiesen.“
Das System ersetzt bestehende Sensoren nicht. Es ergänzt sie. In Fahrzeugen liefert LiDAR präzise Daten für Objekte im direkten Sichtfeld. HoloRadar fügt eine zusätzliche Wahrnehmungsebene hinzu und erkennt potenzielle Gefahren früher – etwa Fußgängerinnen und Fußgänger hinter einer Hausecke. „Roboter und autonome Fahrzeuge müssen über das hinaus sehen können, was sich direkt vor ihnen befindet“, betont Zhao. „Diese Fähigkeit ist unerlässlich, damit Roboter und autonome Fahrzeuge in Echtzeit sicherere Entscheidungen treffen können.“
KI entwirrt das Funk-Chaos
Technisch liegt die größte Hürde in der Signalverarbeitung. Ein ausgesendeter Funkimpuls wird mehrfach reflektiert. Er trifft auf Wände, Böden, Objekte. Am Sensor kommt ein komplexes Überlagerungsmuster an. Klassische Algorithmen stoßen hier schnell an Grenzen.
Das Team kombiniert daher maschinelles Lernen mit physikalischer Modellierung. In einem ersten Schritt verbessert ein neuronales Netz die Auflösung der Rohdaten und identifiziert einzelne Rückläufe, die unterschiedlichen Reflexionspfaden entsprechen. Anschließend nutzt ein physikbasiertes Modell die bekannten Eigenschaften der Funkreflexion, um die tatsächlichen Objektpositionen zu berechnen.
Zitong Lan beschreibt das Problem so: „In gewisser Weise ähnelt die Herausforderung dem Betreten eines Raums voller Spiegel. Man sieht viele Kopien desselben Objekts, die an verschiedenen Stellen reflektiert werden, und das Schwierige ist, herauszufinden, wo sich die Dinge wirklich befinden. Unser System lernt, diesen Prozess auf physikalisch fundierte Weise umzukehren.“
Entscheidend ist, dass die KI nicht frei spekuliert. Sie arbeitet mit einem physikalischen Rahmen. Dadurch kann sie direkte und indirekte Reflexionen unterscheiden und reale 3D-Positionen rekonstruieren.
Erste Tests im Innenraum
In Versuchen setzte das Team HoloRadar auf einem mobilen Roboter in Fluren und an Gebäudeecken ein. Das System rekonstruierte Wände, Korridore und Personen außerhalb des Sichtfelds. Die Ergebnisse zeigen, dass Funkbasierte NLOS-Wahrnehmung praxistauglich sein kann. Der nächste Schritt führt nach draußen. Straßenkreuzungen, größere Distanzen und bewegte Objekte stellen neue Anforderungen. Störquellen und Mehrwegeffekte nehmen im urbanen Umfeld zu. Gleichzeitig steigt dort der Sicherheitsgewinn.
Langfristig geht es um mehr als nur „durch Wände sehen“. Es geht um ein robusteres Situationsverständnis für Maschinen. Systeme, die auch dann reagieren können, wenn optische Sensoren versagen oder Informationen fehlen. „Unser langfristiges Ziel ist es, Maschinen in die Lage zu versetzen, sicher und intelligent in den dynamischen und komplexen Umgebungen zu arbeiten, in denen sich Menschen täglich bewegen“, sagt Zhao.
Ein Beitrag von: