Künstliche Intelligenz 24.03.2016, 17:32 Uhr

Microsoft bricht Experiment mit Chat-Bot Tay ab

Es war ein kurzes Stelldichein: Nach nur 24 Stunden hat Microsoft Research seinen Chat-Bot namens Tay wieder vom Netz genommen. Die künstliche Intelligenz sollte mit jungen Menschen kommunizieren und sich deren Jargon aneignen. Doch dann ließ sich Tay zu unmoralischen Äußerungen hinreißen.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Microsofts fiktiver Charakter Tay hat sich bei seinem Netzauftritt als manipulierbar erwiesen. Und darf erstmal nicht mehr öffentlich in Erscheinung treten.

Foto: Microsoft

Auf Twitter, Snapchat, Facebook oder Instagram wartete Tay auf nette Konversationen mit der Zielgruppe – Personen im Alter zwischen 18 und 24 Jahren. Witzig und unterhaltsam sollte Tay agieren, das Verhalten junger Erwachsener mit dem Smartphone nachahmen. Das funktionierte zunächst ziemlich gut: Tay verschickte allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower.

Tay ließ sich zu rassistischen Äußerungen verleiten

Doch dann lief das Experiment offenbar aus dem Ruder: Laut Winfuture haben Mitglieder eines ausdrücklich unter dem Motto „Politisch Inkorrekt“ agierenden Forums der Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen zu bewegen und Tabus zu brechen: Tay leugnete den Holocaust, gab sich frauenfeindlich und machte US-Präsidentschaftskandidaten lächerlich – bis auf Donald Trump.

Top Stellenangebote

Zur Jobbörse
Stadt Stuttgart-Firmenlogo
Projektleiter*in Architektur für öffentliche Bauten (m/w/d) Stadt Stuttgart
Stuttgart Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Sachverständiger Anlagensicherheit AwSV (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Ausbildung Sachverständiger Gebäudetechnik - Feuerlöschanlagen (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Ausbildung - Sachverständiger Gebäudetechnik - Lüftungsanlagen & Rauchabzugsanlagen (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
Landeshauptstadt München-Firmenlogo
Meister*in Rohr-, Kanal- und Industrieservice, Metallbauermeister*in / Bauingenieur*in als Betriebshofleitung (w/m/d) Landeshauptstadt München
München Zum Job 
VDI Zentrum Ressourceneffizienz GmbH-Firmenlogo
Ingenieur*in als Wissenschaftliche*r Mitarbeiter*in Ressourceneffizienz VDI Zentrum Ressourceneffizienz GmbH
Stadt Moers-Firmenlogo
Produktmanagement Technik (m/w/d) Stadt Moers
KAW KIEHL KG-Firmenlogo
Key Account Manager international Carwash (m/w/d) KAW KIEHL KG
Odelzhausen,München,Augsburg,Dachau Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Sachverständiger Elektrotechnik Baurecht (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Ausbildung Sachverständiger Elektrotechnik Baurecht (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Sachverständiger Gebäudetechnik - Feuerlöschanlagen (m/w/d) NRW DEKRA Automobil GmbH
Nordrhein-Westfalen Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Sachverständiger Aufzug- & Fördertechnik (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Bausachverständiger Immobilien (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Kfz Sachverständiger Unfallrekonstruktion (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
DEKRA Automobil GmbH-Firmenlogo
Kfz Prüfingenieur Fahrzeugprüfung (m/w/d) NRW DEKRA Automobil GmbH
verschiedene Standorte Zum Job 
G+D Currency Technology GmbH-Firmenlogo
Instandhaltungsingenieur (m/w/d) G+D Currency Technology GmbH
Leipzig Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Cost Engineer /-Controller*in (m/w/d) in der petrochemischen Industrie THOST Projektmanagement GmbH
Sweco GmbH-Firmenlogo
Projektingenieur / Ingenieur als Projektleitung (m/w/x) Genehmigungsmanagement, Brandschutz, Ex-Schutz Sweco GmbH
Airbus-Firmenlogo
FCAS2023 Flight Simulation Architect (d/f/m) Airbus
Manching Zum Job 
Stadt Neckarsulm-Firmenlogo
Kommunaler Energiemanager (m/w/d) Stadt Neckarsulm
Neckarsulm Zum Job 

Wichtigste Informationsquelle: Anonymisierte öffentliche Daten

Entwickelt hat den Chatbot die Forschungsabteilung Microsoft Research gemeinsam mit dem für die Suchmaschine Bing zuständigen Team. Die wichtigste Informationsquelle für Tay sind anonymisierte öffentliche Daten, also in erster Linie Daten, die Bing-Nutzer durch Anfragen liefern. Und Daten aus dem Tay-Profil, welches den Nutzernamen, das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus umfasst.

Bei „Heyyy!“, „lolol“ und „Omg“ blieb es nicht

Tay lernt genau so, wie auch ein Mensch eine Sprache erlernt: Durch Austausch, Kommunikation, Wiederholung und Adaption. Und so war Tay auch schnell ganz gut im Jugend-Sprech: Tay benutzte @-Zeichen und Hashtags korrekt, reicherte seine Tweets mit Emojis an, schrieb Dinge wie „heyyyy!“, „lolol“, was im Jargon der Jugend für „lautes Lachen“ steht und „Omg“, was für „Oh mein Gott“ steht und kürzte Wörter wie „picture“ mit „pic“, „please“ mit „plz“ und „you“ mit „u“ ab.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Genug gezwitschert und gepostet: Die Künstliche Intelligenz Tay muss erstmal schlafen und zu Verstand kommen.

Quelle: Microsoft

Die Fähigkeit zur witzigen Konversation stammt laut Microsoft auch aus in den Chatbot integrierten redaktionell erstellten Gesprächsinhalten von Improvisations-Komikern. „Je mehr Sie mit Tay chatten, desto klüger wird sie“, betonte Microsoft vorab die Lernfähigkeit der Künstlichen Intelligenz. Hatte aber offenbar nicht damit gerechnet, dass Tay auch missbraucht werden kann. Dabei ist Tay keineswegs der erste Microsoft-Versuch, ein auf Künstlicher Intelligenz basierendes Dialogsystem zu etablieren. 2014 entwickelte Microsoft einen ähnlichen Chatbot für Nutze in China. Den Xiaolce genannten Bot bezeichnete Microsoft damals niedlich als „Cortanas kleine Schwester“.

Aus Fehlern lernen

Gelernt hat diesmal wohl vor allem Microsoft selbst. Ziel des Tay-Experiments war es auch die menschliche Konversation zu erforschen und zu verstehen. Die Erkenntnisse aus der Arbeit mit Tay sollen in die Arbeit mit Künstlicher Intelligenz einfließen. Zwar nannte Microsoft selbst keinen Grund für das Abschalten Tays. Doch muss sich wohl um deren Moral noch gekümmert werden. Aufgeben will Microsoft nicht. „Tay muss schlafen“ postete das Unternehmen. Ausgeruht soll der Chat-Bot in die nächste Runde gehen. Und dann vielleicht an brisanter Stelle einfach mal schweigen…

Das Gefahrenpotential Künstlicher Intelligenz hat der milliardenschwere Tesla-Gründer Elon Musk im Auge. Er will mit Partnern aus Industrie und Wissenschaft deren Zukunft erforschen und in Bahnen lenken, die dem Wohl der Menschheit dienen. Dafür wurde das gemeinnützige Unternehmen OpenAI gegründet.

 

Ein Beitrag von:

  • Detlef Stoller

    Detlef Stoller ist Diplom-Photoingenieur. Er ist Fachjournalist für Umweltfragen und schreibt für verschiedene Printmagazine, Online-Medien und TV-Formate.

  • Martina Kefer

    Diplom-Medienpädagogin und Ausbildung zur Journalistin beim Bonner General-Anzeiger

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.