25.11.2016, 13:11 Uhr | 0 |

Googles Künstliche Intelligenz DeepMind schlägt menschlichen Lippenleser 4:1

Googles neuronales Netzwerk DeepMind hat mal wieder seine menschlichen Kollegen überholt: Die künstliche Intelligenz erkennt viermal so viele Wörter an den Mundbewegungen wie ein menschlicher Lippenleser. Gelernt hat DeepMind diese Fähigkeit allein durch Fernsehen. Fast sieben Monate hing es dafür vor der Glotze. 

Von den Lippen ablesen
Á

Googles Künstliche Intelligenz DeepMind hat sich 5.000 Stunden lang Talkshows im Fernsehen angeschaut – und konnte danach viel besser von den Lippen ablesen als ein darin ausgebildeter Mensch.

Foto: GoogleWatchBlog

Und Fernsehen ist doch nützlich – zumindest für Googles neuronales Netzwerk DeepMind. Die Künstliche Intelligenz kann nun nach 5.000 Stunden TV-Dauerkonsum besser Lippenlesen als ein Mensch, der eine professionelle Ausbildung in diesem Bereich hat. Immerhin fast jedes zweite Wort kann der Computer allein anhand der Lippenbewegungen erkennen.

Beigebracht hat er sich diese Fähigkeit an der Universität Oxford mithilfe des selbstlernenden Systems „Watch, Listen, Attend and Spell“, zu Deutsch: „Beobachte, höre zu, nimm teil und buchstabiere“. Der Name ist dabei Programm. DeepMind wurde vor Nachrichtensendungen, Magazine und politische Diskussionssendungen der BBC aus den Jahren 2012 bis 2015 gesetzt – alles Formate, in denen Menschen tendenziell direkt in die Kamera sprechen, sich dabei aber weitgehend natürlich verhalten.

118.000 Sätze mit 17.500 verschiedenen Wörtern

So konnte die künstliche Intelligenz realitätsnah Wörter und Mundbewegung miteinander kombinieren. Die Menge, die sie dabei aufnahm, ist enorm: 118.000 Sätze mit 17.500 verschiedenen Wörtern beinhalteten die Sendungen insgesamt, so die Forscher. Diese griffen während der Lernphase übrigens nicht korrigierend ein: „Watch, Listen, Attend and Spell“ lernt tatsächlich autonom.

Die Arbeit der Wissenschaftler lag daher im Vorfeld. Unter anderem war es ganz und gar nicht egal, was genau DeepMind so im Laufe seines immerhin 208 Tage währenden Fernseh-Marathons aufsaugte – die Maschine einfach vor irgendwelchen Aufzeichnungen zu parken, wäre nicht zielführend gewesen. Der Grund: Ton und Bild sind vor allem bei älterem Material oft geringfügig gegeneinander verschoben. Obwohl es sich dabei nur um kleinste Abweichungen von wenigen Millisekunden handelt, hätte das gereicht, um den Computer zu verwirren und das Ergebnis zu verfälschen. Deshalb hatten die Forscher vors Lernen das Korrigieren der Synchronität gesetzt. 

DeepMind erkennt fast jedes zweite Wort

Der Aufwand hat sich gelohnt: Bei einem Test mit aktuellen Sendungen, die DeepMind komplett ohne Tonspur vorgesetzt wurden, erkannte es immerhin 46,8 % der Wörter – nahezu jedes zweite. Zum Vergleich: Der menschliche Kollege, ein ausgebildeter und geübter Lippenleser, kam auf eine Quote von 12,4 %, also ein knappes Achtel der Wörter. Dass Lippenleser Gesprächen trotzdem zumindest in groben Zügen folgen können, liegt daran, dass sie sich fehlende oder falsch verstandene Begriffe aus dem Kontext erschließen.

ARCHIV - ILLUSTRATION - Eine junge Frau formt am 10.02.2011 in Köln einen Kussmund mit ihren Lippen. Foto: Rolf Vennenbernd/dpa (zu dpa "«Viagra für Frauen»: Flibanserin in den USA zugelassen vom 19.08.2015) +++(c) dpa - Bildfunk+++
Á

Jeden Wunsch von den Lippen ablesen: Das kann Googles künstliche Intelligenz DeepMind besser als Menschen.

Foto: Rolf Vennenbernd/dpa

Mit seiner beeindruckenden Quote und seinem großen Wortschatz könnte sich DeepMind basierende künstliche Intelligenz zu einer wertvollen Hilfe für Gehörlose oder Schwerhörige mausern, indem sie zum Beispiel Gespräche und Fernsehbeiträge nahezu simultan in Untertitel übersetzt. Englisch kann das System ja bereits, andere Sprachen müsste es erst noch trainieren. Auch Smartphone-Sprachassistenten wie Siri & Co würden profitieren, da sie sich dann auch per Kamera und ohne Mikrophon bedienen ließen.

Geheimdienste horchen auf

Und natürlich sind auch Geheimdienste und Sicherheitsfirmen höchst interessiert an so erfolgreichen und unbestechlichen Lippenlesern wie DeepMind. Dass jedes Supermarkt-Gespräch dabei belauscht werden wird, ist dabei jedoch nicht zu erwarten. Dafür sind die derzeit verwendeten Kameras viel zu unscharf und ihre Bildrate ist zu niedrig. 

Außerdem hätte DeepMind dann keine Zeit mehr fürs Go-Spielen: Erst kürzlich hatte die ebenfalls auf diesem System basierende Software AlphaGo von Google Schlagzeilen damit gemacht, den amtierenden Weltmeister Lee Sedol in dem asiatischen Strategiespiel geschlagen zu haben.

Übrigens ist das Projekt „Lippenlesen“ nicht das erste Mal, dass sich Googles DeepMind mit dem gesprochenen Wort befasst: Die ebenfalls darauf basierende Technologie Wave Net erzeugt Sprache als Wellenform, passt Laute anderen Buchstaben in der Wortumgebung an und klingt dabei nahezu menschlich. 

Anzeige
Von Judith Bexten
Zur StartseiteZur Startseite
schlagworte: 
kommentare

Aktuell wurden noch keine Kommentare zu diesem Artikel abgegeben. Loggen Sie ich ein oder melden Sie sich neu an, wenn Sie noch keine Zugangsdaten haben
> Zum Login     > Neu anmelden