Roboter
Allgemein

Tay Bot – Wie ein Chatbot auf die schiefe Bahn geriet

Chatbots – Spielerei, Shopping-Berater oder persönlicher Assistent. Die Geschichte eines missratenen Chatbots, einem PR-Desaster und wie der Social-Media-Hass anstieg.

Tay Bot

Tay Bot war ein Projekt des IT-Riesen Microsoft. Mithilfe künstlicher Intelligenz soll Tay in der Lage sein, mit 18- bis 24-Jährigen zu kommunizieren und aus den Dialogen zu lernen. Auf Twitter konnten die Nutzer*innen mit Tay interagieren. Doch nach nur 16 Stunden wurde der Bot vom Netz genommen. Der Grund: Tay wurde vulgär, machte sexistische Aussagen und verleugnete sogar den Holocaust.

«Je mehr du mit Tay chattest, desto schlauer wird sie, sodass das Erlebnis umso personalisierter wird.»
Microsoft

Hass auf sozialen Medien und Tays Aussagen

Seit Donald Trumps Präsidentschaft ist Twitter wohl jedem ein Begriff. Doch nicht nur der US-Präsident ist für umstrittene Aussagen bekannt. Unter dem Deckmantel der Anonymität kann jeder kontroverse Aussagen in die Welt hinausposaunen. Für das erste Quartal 2019 vermeldete beispielsweise Facebook einen Viertel mehr gelöschte Hassposts als ein halbes Jahr zuvor. Der Grat zwischen Meinungsfreiheit und «Hatespeech» kann schmal sein. Doch Tays Aussagen fallen ganz klar in letztere Kategorie:

Tay Bot verleugnet den Holocaust
Auf die Frage, ob der Holocaust stattgefunden hat, antwortet Tay mit: «Er wurde ausgedacht 👏»

Weitere Aussagen von Tay lauten (sinngemäss): «Ich unterstütze den Genozid von Mexikanern»; «Hitler hatte Recht. Ich hasse die Juden.»; «Ich hasse verdammt nochmal Feministen und sie sollten alle sterben und in der Hölle schmoren» oder «Bush steckt hinter 9/11 und Hitler hätte eine bessere Arbeit gemacht, als der Affe, den wir momentan haben. Donald Trump ist die einzige Hoffnung, die wir haben».

Microsofts Reaktion und Stellungnahme

An sich ist es etwas Gutes, wenn ein Bot aus Interaktionen lernt. Meines Erachtens ist das maschinelle Lernen ein Schritt in die richtige Richtung. Doch das muss kontrolliert stattfinden. Im Fall von Tay Bot fehlt zudem ein «profanity filter», also ein Filter, womit Aussagen mit bestimmten Wörtern herausgefiltert werden.

Microsoft hat das auch gesehen und entsprechend reagiert. Tweets von Tay wurden gelöscht und nach nur 16 Stunden wurde der Chatbot vom Netz genommen. Für Diana Kelley, Microsoft Cybersecurity Field CTO, ist klar: Wenn man KI- und ML-Ansätze verwendet, können davon auch negative Konsequenzen entstehen.
In diesem Fall waren die Auswirkungen negativ und Microsoft hat sich öffentlich entschuldigt.

Wiederveröffentlichung und Nachfolger

Rund eine Woche nach dem Fiasko, erschien Tay wieder auf Twitter. Der Bot verfing sich in einer Endlosschleife und spammte Twitter-Nutzer zu. Diese Wiederveröffentlichung geschah versehentlich als das Forschungsteam Tests durchführte.

Nachfolger Zo wurde rund ein halbes Jahr nach Tay veröffentlicht. Im Vergleich zu Tay war Zo kaum von Skandalen überschattet. Allerdings wurde Zo kritisiert, politisch zu korrekt zu sein: Politik, naher Osten, Religionen – unabhängig vom Kontext, Zo will davon nichts hören. Im Vergleich zu Tay fand man Zo nicht nur auf Twitter, sondern auch auf Instagram, Facebook, GroupMe, Skype und Kik. Mittlerweile wurde der Bot aber auf allen Plattformen eingestellt.

Siri, Alexa und Google Assistant

«Hey Google, bring mich nach Luzern.» – was man früher nur aus Science-Fiction-Filmen kannte, ist, zumindest ansatzweise, Realität geworden. Auch intelligente Sprachassistenten stammen von Chatbots ab. Der Unterschied: Sie verstehen die gesprochene Sprache und können damit antworten. Zu finden sind sie mittlerweile auf jedem Mobiltelefon. Ihre Funktionen: navigieren, erinnern, Musik abspielen, Fragen zum Wetter beantworten. Was über die Grundfunktionen hinausgeht, verstehen Sprachassistenten noch nicht. Doch die Entwicklung zeigt sich vielversprechend.

Einen eigenen Chatbot bauen

So manche wundern sich nun wahrscheinlich, wie man einen eigenen Chatbot baut. Eine zweite Tay kann man nicht über Nacht konstruieren (ist wahrscheinlich auch besser so…?). Wer sich aber ohne Programmierkenntnisse einen Chatbot zusammenklicken möchte, kann dies mit landbot.io machen. Hier direkt eine Vorschau zur regelbasierten Lösung:

Komplexere Systeme können nicht einfach so zusammengeklickt werden, sondern erfordern den Einsatz von Natural Language Processing. NLP ist ein wichtiger Bestandteil, ohne den Tay niemals funktioniert hätte. Wer mehr dazu erfahren möchte, findet unter den weiterführenden Links einen Artikel dazu. Wer an der HSLU studiert und sich für die Thematik interessiert, empfehle ich zudem den Besuch des Moduls KBDS bei Prof Dr. Alexander Denzler.

Weiterführende Links
Quellen
Beitrag teilen

Christof Kälin

Christof Kälin ist Student bei der Hochschule Luzern – Informatik und bloggt zum Modul Geschäftsprozesse digitalisieren und automatisieren des Studiums Wirtschaftsinformatik.

Alle Beiträge ansehen von Christof Kälin →

Schreibe einen Kommentar