Chatbots – Spielerei, Shopping-Berater oder persönlicher Assistent. Die Geschichte eines missratenen Chatbots, einem PR-Desaster und wie der Social-Media-Hass anstieg.
Tay Bot
Tay Bot war ein Projekt des IT-Riesen Microsoft. Mithilfe künstlicher Intelligenz soll Tay in der Lage sein, mit 18- bis 24-Jährigen zu kommunizieren und aus den Dialogen zu lernen. Auf Twitter konnten die Nutzer*innen mit Tay interagieren. Doch nach nur 16 Stunden wurde der Bot vom Netz genommen. Der Grund: Tay wurde vulgär, machte sexistische Aussagen und verleugnete sogar den Holocaust.
«Je mehr du mit Tay chattest, desto schlauer wird sie, sodass das Erlebnis umso personalisierter wird.»
Microsoft
Hass auf sozialen Medien und Tays Aussagen
Seit Donald Trumps Präsidentschaft ist Twitter wohl jedem ein Begriff. Doch nicht nur der US-Präsident ist für umstrittene Aussagen bekannt. Unter dem Deckmantel der Anonymität kann jeder kontroverse Aussagen in die Welt hinausposaunen. Für das erste Quartal 2019 vermeldete beispielsweise Facebook einen Viertel mehr gelöschte Hassposts als ein halbes Jahr zuvor. Der Grat zwischen Meinungsfreiheit und «Hatespeech» kann schmal sein. Doch Tays Aussagen fallen ganz klar in letztere Kategorie:

Weitere Aussagen von Tay lauten (sinngemäss): «Ich unterstütze den Genozid von Mexikanern»; «Hitler hatte Recht. Ich hasse die Juden.»; «Ich hasse verdammt nochmal Feministen und sie sollten alle sterben und in der Hölle schmoren» oder «Bush steckt hinter 9/11 und Hitler hätte eine bessere Arbeit gemacht, als der Affe, den wir momentan haben. Donald Trump ist die einzige Hoffnung, die wir haben».
Microsofts Reaktion und Stellungnahme
An sich ist es etwas Gutes, wenn ein Bot aus Interaktionen lernt. Meines Erachtens ist das maschinelle Lernen ein Schritt in die richtige Richtung. Doch das muss kontrolliert stattfinden. Im Fall von Tay Bot fehlt zudem ein «profanity filter», also ein Filter, womit Aussagen mit bestimmten Wörtern herausgefiltert werden.
Microsoft hat das auch gesehen und entsprechend reagiert. Tweets von Tay wurden gelöscht und nach nur 16 Stunden wurde der Chatbot vom Netz genommen. Für Diana Kelley, Microsoft Cybersecurity Field CTO, ist klar: Wenn man KI- und ML-Ansätze verwendet, können davon auch negative Konsequenzen entstehen.
In diesem Fall waren die Auswirkungen negativ und Microsoft hat sich öffentlich entschuldigt.
Wiederveröffentlichung und Nachfolger
Rund eine Woche nach dem Fiasko, erschien Tay wieder auf Twitter. Der Bot verfing sich in einer Endlosschleife und spammte Twitter-Nutzer zu. Diese Wiederveröffentlichung geschah versehentlich als das Forschungsteam Tests durchführte.
Nachfolger Zo wurde rund ein halbes Jahr nach Tay veröffentlicht. Im Vergleich zu Tay war Zo kaum von Skandalen überschattet. Allerdings wurde Zo kritisiert, politisch zu korrekt zu sein: Politik, naher Osten, Religionen – unabhängig vom Kontext, Zo will davon nichts hören. Im Vergleich zu Tay fand man Zo nicht nur auf Twitter, sondern auch auf Instagram, Facebook, GroupMe, Skype und Kik. Mittlerweile wurde der Bot aber auf allen Plattformen eingestellt.
Siri, Alexa und Google Assistant
«Hey Google, bring mich nach Luzern.» – was man früher nur aus Science-Fiction-Filmen kannte, ist, zumindest ansatzweise, Realität geworden. Auch intelligente Sprachassistenten stammen von Chatbots ab. Der Unterschied: Sie verstehen die gesprochene Sprache und können damit antworten. Zu finden sind sie mittlerweile auf jedem Mobiltelefon. Ihre Funktionen: navigieren, erinnern, Musik abspielen, Fragen zum Wetter beantworten. Was über die Grundfunktionen hinausgeht, verstehen Sprachassistenten noch nicht. Doch die Entwicklung zeigt sich vielversprechend.
Einen eigenen Chatbot bauen
So manche wundern sich nun wahrscheinlich, wie man einen eigenen Chatbot baut. Eine zweite Tay kann man nicht über Nacht konstruieren (ist wahrscheinlich auch besser so…?). Wer sich aber ohne Programmierkenntnisse einen Chatbot zusammenklicken möchte, kann dies mit landbot.io machen. Hier direkt eine Vorschau zur regelbasierten Lösung:
Komplexere Systeme können nicht einfach so zusammengeklickt werden, sondern erfordern den Einsatz von Natural Language Processing. NLP ist ein wichtiger Bestandteil, ohne den Tay niemals funktioniert hätte. Wer mehr dazu erfahren möchte, findet unter den weiterführenden Links einen Artikel dazu. Wer an der HSLU studiert und sich für die Thematik interessiert, empfehle ich zudem den Besuch des Moduls KBDS bei Prof Dr. Alexander Denzler.
Weiterführende Links
- Eigenen Klick-Chatbot zusammenbauen
- KI-Fails erklärt #1: Der rassistische Bot Tay und das Natural Language Processing
- Modulbeschrieb KBDS (nur HSLU-intern)
Quellen
- Titelbild: Unsplash
- Microsoft chatbot is taught to swear on Twitter (BBC News)
- Vom Hipster-Mädchen zum Hitler-Bot (Spiegel)
- «Was heute fehlt, sind pointierte Gegenmeinungen» (SRF News)
- Was hat es mit dem Hype der Chatbots auf sich? (FH News)
- Microsoft is deleting its AI chatbot’s incredibly racist tweets (Business Insider)
- Microsoft and the learnings from its failed Tay artificial intelligence bot (ZDNet)
- Tay, Microsoft’s AI program, is back online (CNBC)
- Microsoft’s politically correct chatbot is even worse than its racist one (Quartz)
- Chatbots vs. Sprachassistenten: Was Unternehmen brauchen (IOX)
- Wo Sprachassistenten für daheim an ihre Grenzen stoßen (Techbook)