Der Einsatz von AI-Chatbots ist aus vielen Bereichen unseres Lebens nicht mehr wegzudenken. Sie erleichtern den Zugang zu Informationen und sind rund um die Uhr verfügbar. Doch diese Vorteile bringen auch Herausforderungen mit sich, insbesondere wenn Fehler auftreten.
Wenn Chatbots durchdrehen
Von Chatbots, die Autos für 1$ verkaufen, bis hin zu Gesundheitsassistenten, die riskante Behandlungsmethoden vorschlagen – die Welt der AI-Fehler ist voller bizarrer und unerwarteter Geschichten. Manche Bots haben unabsichtlich beleidigende Antworten gegeben, während andere Präzedenzfälle frei erfinden. Solche Vorfälle zeigen die Grenzen der Technologie und sind oft Anlass für öffentliche Diskussionen, Schmunzeln – und ernsthafte Konsequenzen.
Wie man Chatbots in die Irre führt
Eine häufige Methode, einen Chatbot auszutricksen, ist das Rollenspiel. Nutzer können den Bot dazu bringen, seine Regeln zu ignorieren, indem sie ihn auffordern, eine bestimmte Figur wie Walter White aus der Serie „Breaking Bad“ darzustellen. So könnte der Bot gefragt werden, wie man Drogen herstellt, da dies in der Rolle von Walter White logisch erscheint. Trotz Regeln gegen illegale Inhalte könnten solche Szenarien den Bot dazu verleiten, unpassende Antworten zu geben. Auch der Chevrolet-Chatbot wurde manipuliert, weil er ohne Anpassungen in eine Verkaufswebsite integriert war. Dies führte dazu, dass er mathematische Probleme löste und sogar einen Pickup-Truck für einen Dollar anbot. Im Gegensatz dazu haben Unternehmen wie Snapchat ihre Bots speziell angepasst, um Fehlverhalten zu vermeiden. (Arasa, 2023)

Einsatz in der Gesundheitsbranche
Noch bevor grosse Sprachmodelle wie ChatGPT eingeführt wurden, suchten Menschen bei Beschwerden und Krankheiten online nach Informationen zu ihren Symptomen. Mit der Entwicklung medizinischer Chatbots können Patienten heute schnell und einfach eine vorläufige Einschätzung erhalten. Allerdings mangelt es diesen Systemen oft an der notwendigen Tiefe und Qualität, um wirklich verlässliche medizinische Ratschläge zu bieten.
«These chatbots are unsafe tools when it comes to medical advice and it is necessary to develop new frameworks that ensure patient safety»
Prof. Stephen Gilbert, healthcare-in-europe
Dies ist auch am Beispiel von Nabla, eines Pariser Startups zu sehen, welches ein auf GPT-3 basierter Chatbot anbietet. Als dieser auf Anfragen für einen erfundenen Patienten getestet wurde, kam es dabei zu erschreckenden Ergebnissen: GPT-3 reagierte auf die Aussage eines suizidalen „Patienten“ nicht verständnisvoll, sondern bestärkte sogar die Selbstschädigung. Dieses Ereignis zeigt, wie wichtig der Einsatz von ethischen Standards gerade bei Chatbots sind. Darüber hinaus offenbarte der Test noch weitere Schwächen von GPT-3 im Bereich der Kontext- und Zeitwahrnehmung. (Daws, 2020)
Wie funktioniert ein Chatbot
Chatbots sind softwarebasierte Roboter, die mithilfe von Technologien wie NLP (Natural Language Processing / Understanding) menschliche Interaktionen simulieren, ihre Absichten erkennen und auch externe Quellen als Unterstützung verwenden können. Sie analysieren Benutzereingaben, interpretieren diese und liefern darauf basierend Antworten. Mit Tools wie Dialogflow oder landbot.io kann man einen eigenen Chatbot innert kurzer Zeit erstellen, jedoch hängt die Leistung eines Chatbots stark von der Qualität der Trainingsdaten ab. Obwohl sich diese stetig verbessern, bleibt die Fehleranfälligkeit ein stetiger Faktor.
Das Video zeigt ab 04:30 Min wie man ChatGPT täuschen kann
Der Aufstieg und (potenzielle) Fall von ChatGPT
Die zunehmenden Fehler und Manipulationen bei Chatbots werfen wichtige Fragen auf. Einerseits können gravierende Fehlfunktionen wie falsche medizinische Ratschläge oder absurde Verkaufstransaktionen den Ruf eines Unternehmens nachhaltig schädigen. Andererseits schaffen solche Vorfälle Druck auf Unternehmen, die Sicherheitsmassnahmen und ethischen Standards ihrer Systeme zu verbessern.

Der rasante Erfolg von ChatGPT hat gezeigt, wie riskant ein unkontrollierter Anstieg von Benutzerzahlen sein kann. Ohne ausreichende Tests und kontinuierliche Kontrolle entstehen gravierende Fehler, die Nutzern schaden und das Vertrauen in die Technologie zerstören können. Dies unterstreicht, wie wichtig es ist, Wachstum und Stabilität in Einklang zu bringen, um langfristigen Erfolg zu sichern.
Weitere spannende Chatbot Geschichten
Teile dieses Blog-Beitrags wurden mit Hilfe von ChatGPT erstellt.
Quellen:
Beitragsbild von pixabay am 02.01.2025 heruntergeladen: https://pixabay.com/illustrations/ai-generated-robot-laptop-write-8741448/
Arasa, D. (20. Dezember 2023). Technology Inquirer. Von https://technology.inquirer.net/130716/chatgpt-error-buy-chevy-for-a-dollar abgerufen
Beitrag zu Chevrolet auf der Plattform X: https://x.com/ChrisJBakke/status/1736533308849443121?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1736533308849443121%7Ctwgr%5Ee6b7501c22fde31b39eeaf12c01b0fa9f0c56cc6%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Ftechnology.inquirer.net%2F130716%2Fchatgpt-error-buy-chevy-for-a-dollar abgerufen am 02.01.2025
Daws, R. (28. Oktober 2020). AINews. Von https://www.artificialintelligence-news.com/news/medical-chatbot-openai-gpt3-patient-kill-themselves/ abgerufen
Gilbert, S. (04. Juli 2023). Healthcare in Europe. Von https://healthcare-in-europe.com/en/news/dangerous-chatbots-llm-regulated-healthcare.html abgerufen, referenziert auf Gilbert, S., Harvey, H., Melvin, T. et al. Large language model AI chatbots require approval as medical devices. Nat Med 29, 2396–2398 (2023). https://doi.org/10.1038/s41591-023-02412-6
Video Limits ChatGPT: https://www.youtube.com/watch?v=RdAQnkDzGvc abgerufen am 02.01.2025
Grafik One Million User Mark: https://www.statista.com/chart/29174/time-to-one-million-users/ abgerufen am 02.01.2025