Künstliche Intelligenz 24.03.2016, 17:32 Uhr

Microsoft bricht Experiment mit Chat-Bot Tay ab

Es war ein kurzes Stelldichein: Nach nur 24 Stunden hat Microsoft Research seinen Chat-Bot namens Tay wieder vom Netz genommen. Die künstliche Intelligenz sollte mit jungen Menschen kommunizieren und sich deren Jargon aneignen. Doch dann ließ sich Tay zu unmoralischen Äußerungen hinreißen.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Foto: Microsoft

Auf Twitter, Snapchat, Facebook oder Instagram wartete Tay auf nette Konversationen mit der Zielgruppe – Personen im Alter zwischen 18 und 24 Jahren. Witzig und unterhaltsam sollte Tay agieren, das Verhalten junger Erwachsener mit dem Smartphone nachahmen. Das funktionierte zunächst ziemlich gut: Tay verschickte allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower.

Tay ließ sich zu rassistischen Äußerungen verleiten

Doch dann lief das Experiment offenbar aus dem Ruder: Laut Winfuture haben Mitglieder eines ausdrücklich unter dem Motto „Politisch Inkorrekt“ agierenden Forums der Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen zu bewegen und Tabus zu brechen: Tay leugnete den Holocaust, gab sich frauenfeindlich und machte US-Präsidentschaftskandidaten lächerlich – bis auf Donald Trump.

Wichtigste Informationsquelle: Anonymisierte öffentliche Daten

Entwickelt hat den Chatbot die Forschungsabteilung Microsoft Research gemeinsam mit dem für die Suchmaschine Bing zuständigen Team. Die wichtigste Informationsquelle für Tay sind anonymisierte öffentliche Daten, also in erster Linie Daten, die Bing-Nutzer durch Anfragen liefern. Und Daten aus dem Tay-Profil, welches den Nutzernamen, das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus umfasst.

Bei „Heyyy!“, „lolol“ und „Omg“ blieb es nicht

Tay lernt genau so, wie auch ein Mensch eine Sprache erlernt: Durch Austausch, Kommunikation, Wiederholung und Adaption. Und so war Tay auch schnell ganz gut im Jugend-Sprech: Tay benutzte @-Zeichen und Hashtags korrekt, reicherte seine Tweets mit Emojis an, schrieb Dinge wie „heyyyy!“, „lolol“, was im Jargon der Jugend für „lautes Lachen“ steht und „Omg“, was für „Oh mein Gott“ steht und kürzte Wörter wie „picture“ mit „pic“, „please“ mit „plz“ und „you“ mit „u“ ab.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Quelle: Microsoft

Die Fähigkeit zur witzigen Konversation stammt laut Microsoft auch aus in den Chatbot integrierten redaktionell erstellten Gesprächsinhalten von Improvisations-Komikern. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, betonte Microsoft vorab die Lernfähigkeit der Künstlichen Intelligenz. Hatte aber offenbar nicht damit gerechnet, dass Tay auch missbraucht werden kann. Dabei ist Tay keineswegs der erste Microsoft-Versuch, ein auf Künstlicher Intelligenz basierendes Dialogsystem zu etablieren. 2014 entwickelte Microsoft einen ähnlichen Chatbot für Nutze in China. Den Xiaolce genannten Bot bezeichnete Microsoft damals niedlich als „Cortanas kleine Schwester“.

Aus Fehlern lernen

Gelernt hat diesmal wohl vor allem Microsoft selbst. Ziel des Tay-Experiments war es auch die menschliche Konversation zu erforschen und zu verstehen. Die Erkenntnisse aus der Arbeit mit Tay sollen in die Arbeit mit Künstlicher Intelligenz einfließen. Zwar nannte Microsoft selbst keinen Grund für das Abschalten Tays. Doch muss sich wohl um deren Moral noch gekümmert werden. Aufgeben will Microsoft nicht. „Tay muss schlafen“ postete das Unternehmen. Ausgeruht soll der Chat-Bot in die nächste Runde gehen. Und dann vielleicht an brisanter Stelle einfach mal schweigen…

Das Gefahrenpotential Künstlicher Intelligenz hat der milliardenschwere Tesla-Gründer Elon Musk im Auge. Er will mit Partnern aus Industrie und Wissenschaft deren Zukunft erforschen und in Bahnen lenken, die dem Wohl der Menschheit dienen. Dafür wurde das gemeinnützige Unternehmen OpenAI gegründet.

 

Stellenangebote im Bereich Softwareentwicklung

FRAUNHOFER-INSTITUT FÜR WINDENERGIESYSTEME IWES-Firmenlogo
FRAUNHOFER-INSTITUT FÜR WINDENERGIESYSTEME IWES Wissenschaftlicher Mitarbeiter (m/w/d) Entwicklung neuer Planungstools für die Installation von Offshore-Windparks Bremerhaven, Bremen, Hamburg
FRAUNHOFER-INSTITUT FÜR WINDENERGIESYSTEME IWES-Firmenlogo
FRAUNHOFER-INSTITUT FÜR WINDENERGIESYSTEME IWES Softwareentwicklerin / Softwarentwickler für den Bereich Offshore-Windenergie Bremen
in-tech GmbH-Firmenlogo
in-tech GmbH Softwareentwickler C#(.Net) / C++(QT) für industrielle Systeme (m/w/d) Garching
RUETZ SYSTEM SOLUTIONS GmbH-Firmenlogo
RUETZ SYSTEM SOLUTIONS GmbH Testingenieur / Engineering Consultant (m/w/d) Systemintegration München
SEW-EURODRIVE GmbH & Co KG-Firmenlogo
SEW-EURODRIVE GmbH & Co KG Produktingenieur – Software für Industrierobotik (w/m/d) Bruchsal
Silver Atena-Firmenlogo
Silver Atena Bachelorand / Masterand (m/w/d) Hamburg
Silver Atena-Firmenlogo
Silver Atena Praktikum für Studenten (m/w/d) Hamburg
Manz AG-Firmenlogo
Manz AG Senior Software-Entwickler / Software-Architekt im Maschinenbau (m/w/d) Reutlingen
Manz AG-Firmenlogo
Manz AG Software-Entwickler / SPS-Programmierer im Maschinenbau (m/w/d) Reutlingen
Manz AG-Firmenlogo
Manz AG Softwareingenieur / Informatiker (m/w) im MES-Umfeld Reutlingen

Alle Softwareentwicklung Jobs

Top 5 IT & TK