03.11.2015, 10:46 Uhr | 0 |

KÜNSTLICHE INTELLIGENZ Meisterleistung: Eye-Tracking für drei Displays

Forscher an der Saar haben eine Software ermittelt, mit der sich Blickrichtungen dokumentieren lassen. Der Betrachter ist nicht wie üblich auf einen einzigen Bildschirm fixiert. Er kann abwechselnd auf bis zu drei Monitore schauen. Wer die neuen Möglichkeiten nutzen kann ist allerdings noch nicht ganz klar.

Verschiedene Geräte wie Tablets, Fernsehbildschirme und PC-Displays parallel mit Eye-Tracking-Brille nutzen
Á

Saarbrücker Informatiker haben ein neues Verfahren entwickelt, mit dem man verschiedene Geräte wie Tablets, Fernsehbildschirme und PC-Displays parallel mit Eye-Tracking-Brille nutzen kann. 

Foto: Christian Lander/Universität des Saarlandes

Mit einer ingenieurwissenschaftlichen Meisterleistung warten Forscher der Universität des Saarlandes auf. Sie haben eine Software für Eye-Tracking-Brillen entwickelt, die es ermöglicht, die Blickrichtung des Probanden zu ermitteln, wenn dieser abwechselnd bis zu drei Displays anschaut.

Bisher funktioniert das nur mit einem einzigen Display. Mit der Eye-Tracking-Technik ermittelt die Werbewirtschaft beispielsweise, was den Betrachter an einem Plakat oder Video besonders fesselt und ob die Botschaft, die übermittelt werden soll, tatsächlich effektiv ankommt. Spieleentwickler nutzen die Technik, um Figuren durch Veränderung der Blickrichtung zu steuern.

Brille mit zwei Kameras

Die Brillen sind mit zwei Kameras ausgestattet. Eine Kamera verfolgt die Bewegungen eines Augapfels, die zweite zeichnet das auf, was der Betrachter jeweils anschaut. Die Software führt beide Bilder zusammen, sodass klar wird, wie sein Blick über den Monitor wanderte und wie lange er in bestimmten Regionen verweilt.

Mit dem Saarbrücker Verfahren, entwickelt von einem Team um Antonio Krüger, Professur für Künstliche Intelligenz im Handel an der Universität des Saarlandes und Leiter des „Innovative Retail Laboratory“ am Deutschen Forschungszentrum für Künstliche Intelligenz, kann man etwa ein Tablet, einen Fernsehbildschirm und ein PC-Display parallel mit Tracking-Brille nutzen.

„Bei unserer Technik nutzen wir einen Server, der bestimmte Merkmale der einzelnen Bildschirme wie beispielsweise die Auflösung und Größe erkennt“, so Christian Lander, Leiter des Projekts. Die Geräte schicken das, was sie auf ihren Displays präsentieren, ebenfalls an den Server. „Unsere Software vergleicht die eingehenden Daten mit denen der Nutzerkamera“, so Lander. „Sie erkennt so, ob der Nutzer auf das Tablet auf dem Tisch oder den Fernsehschirm an der Wand schaut.“

Display-Standort ist variabel

Die Software muss zunächst die beteiligten Geräte kennenlernen. Dann kann sie sie auch dann erkennen, wenn sie ihren Standort verändern, ein Tablet etwa in die Hand genommen wird, nachdem es zunächst auf dem Tisch gelegen hat.

An der Entwicklung waren auch Teams um Andreas Bulling vom Max-Planck-Institut für Informatik in Saarbrücken und um Sebastian Boring von der Universität von Kopenhagen beteiligt. Die Informatiker präsentieren ihre Arbeit auf dem „28th ACM User Interface Software and Technology Symposium“ im November im US-amerikanischen Charlotte.

Videoquelle: Association for Computing Machinery

Was man mit der neuen Technik machen kann ist den Entwicklern offenbar noch nicht ganz klar. Vage sprechen sie davon, dass sie „für Chirurgen im Operationssaal oder für Ingenieure in Produktionsanlagen von Interesse sein“ könnte. Anders sieht es bei Opel aus: Erst das Ziel formuliert und dann entsprechend geforscht: Opel-Ingenieure und Darmstädter Wissenschaftler haben ein Eye-Tracking-System entwickelt, das es Autofahrern künftig ermöglicht ihre Scheinwerfer mit den Augen zu lenken.

Anzeige
Von Wolfgang Kempkens
Zur StartseiteZur Startseite
schlagworte: 
kommentare

Aktuell wurden noch keine Kommentare zu diesem Artikel abgegeben. Loggen Sie ich ein oder melden Sie sich neu an, wenn Sie noch keine Zugangsdaten haben
> Zum Login     > Neu anmelden