Künstliche Intelligenz 24.03.2016, 17:32 Uhr

Microsoft bricht Experiment mit Chat-Bot Tay ab

Es war ein kurzes Stelldichein: Nach nur 24 Stunden hat Microsoft Research seinen Chat-Bot namens Tay wieder vom Netz genommen. Die künstliche Intelligenz sollte mit jungen Menschen kommunizieren und sich deren Jargon aneignen. Doch dann ließ sich Tay zu unmoralischen Äußerungen hinreißen.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Foto: Microsoft

Auf Twitter, Snapchat, Facebook oder Instagram wartete Tay auf nette Konversationen mit der Zielgruppe – Personen im Alter zwischen 18 und 24 Jahren. Witzig und unterhaltsam sollte Tay agieren, das Verhalten junger Erwachsener mit dem Smartphone nachahmen. Das funktionierte zunächst ziemlich gut: Tay verschickte allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower.

Tay ließ sich zu rassistischen Äußerungen verleiten

Doch dann lief das Experiment offenbar aus dem Ruder: Laut Winfuture haben Mitglieder eines ausdrücklich unter dem Motto „Politisch Inkorrekt“ agierenden Forums der Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen zu bewegen und Tabus zu brechen: Tay leugnete den Holocaust, gab sich frauenfeindlich und machte US-Präsidentschaftskandidaten lächerlich – bis auf Donald Trump.

Top Stellenangebote

Zur Jobbörse
Die Autobahn GmbH des Bundes-Firmenlogo
Planungsingenieur (w/m/d) Straßenbau Die Autobahn GmbH des Bundes
ESG Elektroniksystem- und Logistik-GmbH-Firmenlogo
Softwareentwickler und Softwaretester im Bereich virtuelle Simulation (gn) ESG Elektroniksystem- und Logistik-GmbH
Fürstenfeldbruck Zum Job 
Max-Planck-Institut für Kernphysik-Firmenlogo
Ingenieur (m/w/d) als Leitung der Betriebstechnik Max-Planck-Institut für Kernphysik
Heidelberg Zum Job 
ESG Elektroniksystem- und Logistik-GmbH-Firmenlogo
Senior Softwareentwickler Missionsautomatisierung für FCAS (gn) ESG Elektroniksystem- und Logistik-GmbH
Berlin, Fürstenfeldbruck, Koblenz Zum Job 
ESG Elektroniksystem- und Logistik-GmbH-Firmenlogo
Expert Systems Engineering Drohnenabwehr (gn) ESG Elektroniksystem- und Logistik-GmbH
Fürstenfeldbruck Zum Job 
Kölner Verkehrs-Betriebe AG-Firmenlogo
Ingenieur*in Betriebsleiterbüro (m/w/d) Kölner Verkehrs-Betriebe AG
Schwermetall Halbzeugwerk GmbH & Co. KG-Firmenlogo
Automatisierungstechniker (m/w/d) Schwermetall Halbzeugwerk GmbH & Co. KG
Stolberg Zum Job 
GDMcom-Firmenlogo
Teamleiter Automation (m/w/d) GDMcom
Leipzig Zum Job 
STC Germany GmbH-Firmenlogo
Ingenieur/Techniker vorzugsweise für Hochfrequenztechnik (m/w/d) STC Germany GmbH
Frontenhausen Zum Job 
GDMcom-Firmenlogo
Sachbearbeiter für Verwaltung von Liegenschaften und Dienstbarkeiten (w/m/d) GDMcom
Leipzig Zum Job 
GDMcom GmbH-Firmenlogo
Systemingenieur für Informations- und Telekommunikationstechnik (m/w/d) GDMcom GmbH
Leipzig Zum Job 
Griesemann Gruppe-Firmenlogo
(Lead) Ingenieur EMSR-Technik (m/w/d) Griesemann Gruppe
Wesseling Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur Straßenplanung (w/m/d) Die Autobahn GmbH des Bundes
Kempten Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur für Bauvorbereitung und -leitung (w/m/d) Die Autobahn GmbH des Bundes
Kempten Zum Job 
Zink Ingenieure GmbH-Firmenlogo
Landschaftsarchitekt / Ingenieur (m/w/d) Zink Ingenieure GmbH
Lauf, Offenburg, Teningen Zum Job 
Fraunhofer-Institut für Angewandte Festkörperphysik IAF-Firmenlogo
Entwicklungsingenieur (m/w/d) - CVD-Diamant-Technologie Fraunhofer-Institut für Angewandte Festkörperphysik IAF
Freiburg im Breisgau Zum Job 
IMS Messsysteme GmbH-Firmenlogo
Elektrotechnikingenieur/-techniker (m/w/i) für die Prüfung von Messsystemen IMS Messsysteme GmbH
Heiligenhaus Zum Job 
Mehler Vario System GmbH-Firmenlogo
Ingenieur (m/w/d) Bereich Entwicklung neue Systeme Mehler Vario System GmbH
Die Autobahn GmbH des Bundes, Niederlassung Südbayern-Firmenlogo
Bauingenieur als Projektleiter Bau und Erhaltung (w/m/d) Die Autobahn GmbH des Bundes, Niederlassung Südbayern
Kempten Zum Job 
ONEJOON GmbH-Firmenlogo
Techniker / Ingenieur (m/w/d) für unser Test Center im Bereich Anlagenbau / Thermoprozesstechnik ONEJOON GmbH
Bovenden Zum Job 

Wichtigste Informationsquelle: Anonymisierte öffentliche Daten

Entwickelt hat den Chatbot die Forschungsabteilung Microsoft Research gemeinsam mit dem für die Suchmaschine Bing zuständigen Team. Die wichtigste Informationsquelle für Tay sind anonymisierte öffentliche Daten, also in erster Linie Daten, die Bing-Nutzer durch Anfragen liefern. Und Daten aus dem Tay-Profil, welches den Nutzernamen, das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus umfasst.

Bei „Heyyy!“, „lolol“ und „Omg“ blieb es nicht

Tay lernt genau so, wie auch ein Mensch eine Sprache erlernt: Durch Austausch, Kommunikation, Wiederholung und Adaption. Und so war Tay auch schnell ganz gut im Jugend-Sprech: Tay benutzte @-Zeichen und Hashtags korrekt, reicherte seine Tweets mit Emojis an, schrieb Dinge wie „heyyyy!“, „lolol“, was im Jargon der Jugend für „lautes Lachen“ steht und „Omg“, was für „Oh mein Gott“ steht und kürzte Wörter wie „picture“ mit „pic“, „please“ mit „plz“ und „you“ mit „u“ ab.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Quelle: Microsoft

Die Fähigkeit zur witzigen Konversation stammt laut Microsoft auch aus in den Chatbot integrierten redaktionell erstellten Gesprächsinhalten von Improvisations-Komikern. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, betonte Microsoft vorab die Lernfähigkeit der Künstlichen Intelligenz. Hatte aber offenbar nicht damit gerechnet, dass Tay auch missbraucht werden kann. Dabei ist Tay keineswegs der erste Microsoft-Versuch, ein auf Künstlicher Intelligenz basierendes Dialogsystem zu etablieren. 2014 entwickelte Microsoft einen ähnlichen Chatbot für Nutze in China. Den Xiaolce genannten Bot bezeichnete Microsoft damals niedlich als „Cortanas kleine Schwester“.

Aus Fehlern lernen

Gelernt hat diesmal wohl vor allem Microsoft selbst. Ziel des Tay-Experiments war es auch die menschliche Konversation zu erforschen und zu verstehen. Die Erkenntnisse aus der Arbeit mit Tay sollen in die Arbeit mit Künstlicher Intelligenz einfließen. Zwar nannte Microsoft selbst keinen Grund für das Abschalten Tays. Doch muss sich wohl um deren Moral noch gekümmert werden. Aufgeben will Microsoft nicht. „Tay muss schlafen“ postete das Unternehmen. Ausgeruht soll der Chat-Bot in die nächste Runde gehen. Und dann vielleicht an brisanter Stelle einfach mal schweigen…

Das Gefahrenpotential Künstlicher Intelligenz hat der milliardenschwere Tesla-Gründer Elon Musk im Auge. Er will mit Partnern aus Industrie und Wissenschaft deren Zukunft erforschen und in Bahnen lenken, die dem Wohl der Menschheit dienen. Dafür wurde das gemeinnützige Unternehmen OpenAI gegründet.

 

Ein Beitrag von:

  • Detlef Stoller

    Detlef Stoller ist Diplom-Photoingenieur. Er ist Fachjournalist für Umweltfragen und schreibt für verschiedene Printmagazine, Online-Medien und TV-Formate.

  • Martina Kefer

    Diplom-Medienpädagogin und Ausbildung zur Journalistin beim Bonner General-Anzeiger

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.