print logo

Chatbot-Fails und wie man sie verhindert

Alles über Chatbot-Fails, welche Herausforderungen sie mit sich bringen und wie man sie verhindert.
Robert Weber | 03.09.2024
© freepik / tapati2528
 

Chatbot-Fails: Warum verbreiten bestimmte KI-Chatbots unpassende Inhalte? Wie Chatbot-Fauxpas entstehen und Tipps, wie man sie vermeidet.

Dass KI-Chatbots künftig immer weiter an Bedeutung gewinnen werden, ist mittlerweile kein Geheimnis mehr. Bekannte Bots wie ChatGPT, Microsoft Copilot (Bing Chat) oder Google Gemini dominieren die KI-Welt und werden von Millionen von Menschen für zahlreiche Zwecke genutzt. Doch selbst die größten Tech-Giganten haben ihre Schattenseiten: So sind verschiedene Chatbots in der Vergangenheit immer wieder mit sogenannten “Chatbot-Fails” in die Schlagzeilen der Medien geraten. Seien es Falschinformationen, beleidigende Inhalte oder unpassende Informationen – wie die folgenden Beispiele zeigen, ist ein unzuverlässiger Chatbot nicht nur für Nutzende verunsichernd und gefährlich, sondern kann auch das Unternehmensimage des Chatbot-Anbieters maßgeblich negativ beeinträchtigen.

Einige Beispiele für Chatbot-Fails

Falschinformationen von Google Bard

Google Bard, der KI-Chatbot von Google, der später in Google Gemini umbenannt wurde, landete bereits vor seiner offiziellen Inbetriebnahme seinen ersten Fehlschlag. In einem Werbevideo, in dem Google die neue KI vorstellte, behauptete Google Bard, dass das erste Foto eines Exoplaneten, d.h. eines Planeten außerhalb unseres Sonnensystems, vom James-Webb-Weltraumteleskop aufgenommen wurde. In Wahrheit war dies, wie die NASA berichtete, 2004 durch das Very Large Telescope geschehen. Auch wenn diese Information auf den ersten Blick nicht alltagsentscheidend wirken mag, so bleibt es eine gefährliche Falschinformation, die erst durch eine tiefer gehende Recherche aufgedeckt werden konnte.

KI-Fehlschläge von ChatGPT

Auch ChatGPT, Google Geminis größter Konkurrent und der wohl aktuell am meisten genutzte Chatbot, ist mehrfach mit besorgniserregendem Fehlverhalten aufgefallen. Eine Studie, die im Dezember 2023 von dem Professor Daniel G. Brown der Universität Waterloo und seiner wissenschaftlichen Mitarbeiterin Aisha Khatun auf dem Preprint-Server arXiv publiziert wurde, bestätigt dies. Sie untersuchten unter anderem ChatGPTs (GPT-3) Reaktionen auf Inhalte, die sowohl wahre Sachverhalte als auch Verschwörungstheorien, Falschinformationen und Fiktion umfassten. Das Ergebnis: ChatGPT stimmte nicht nur korrekten Aussagen zu, sondern bestätigte fälschlicherweise auch Fake News oder vorurteilsbehaftete Anschauungen. Die Studie macht deutlich, dass ChatGPT zwar praktisch, aber nicht für jeden Kontext geeignet ist – eine zusätzliche Faktenkontrolle ist ein absolutes Muss.

Chatbot-Fail im Gesundheitsmanagement

Ein weiteres Beispiel für einen Chatbot-Fail ist der Bot des französischen Start-ups Nabla, das sich auf die Entwicklung von KI-Technologien für das Gesundheitswesen spezialisiert hat. Der auf GPT-3 basierende Chatbot hatte im Rahmen eines Tests die Aufgabe, fiktiven Patienten auf Basis ihrer Anfragen medizinische Ratschläge zu geben. Der Test sollte zeigen, inwiefern ein Chatbot als medizinischer Assistent eingesetzt werden kann. Der Chatbot sorgte für Aufsehen, da er beispielsweise Personen in ihren Suizidgedanken bestätigte und zum Handeln aufforderte. Nabla bestätigte anschließend, dass der Bot nicht für den Einsatz in kritischen Gesundheitsanwendungen geeignet ist.

Die Entstehung von Chatbot-Fails verstehen

Bei den Chatbot-Fails von Google, OpenAI und Nabla handelt es sich zwar um verschiedene KI-Technologien von unterschiedlichen Firmen, aber sie haben alle eine entscheidende Sache gemeinsam: fehlende inhaltliche Kontrolle. Ein Chatbot, dessen Inhalte im Backend bzw. Interface nicht vor der Veröffentlichung geprüft werden, läuft Gefahr, auch Informationen auszuspielen, die unpassend, falsch, beleidigend oder vulgär sind.

Das liegt daran, dass Generative KI halluzinieren kann, wenn sie eine Frage zu einem Thema beantworten soll, das nicht auf eines der erlernten Muster passt.

In einer solchen Situation erfindet die Künstliche Intelligenz also lieber Falschaussagen, um in jedem Fall eine zufriedenstellende Antwort auf die Frage geben zu können. Die gute Nachricht ist: Halluzinationen von KI-Chatbots sind unter der Befolgung einfacher Tipps vermeidbar.

Chatbot-Fails verhindern: So gelingt es

Generative KI mit inhaltlicher Kontrolle

Der erste Schritt, um Chatbot-Fails entgegenzuwirken, beginnt bei der Auswahl des Chatbot-Anbieters. Gerade Unternehmen, die einen Chatbot in der Kundenkommunikation einsetzen möchten, sollten einen Provider wählen, der eine gezielte und kontrollierte Steuerung der Chatbot-Inhalte ermöglicht. So können Informationen, die über den Chatbot ausgespielt werden, im Vorhinein eigenhändig erstellt und geprüft werden. Im Idealfall macht die KI dem Chatbot-Administrator trotzdem Vorschläge für weitere Chatbot-Themen, wenn sie registriert, dass zu einem bestimmten Gebiet vermehrt Fragen gestellt werden. Anschließend kann manuell entschieden werden, ob diese Vorschläge in das Repertoire des Chatbots aufgenommen werden sollen.

Datenschutzgerechte KI

Nicht zuletzt das Inkrafttreten des EU AI Acts zeigt, dass das Thema Datenschutz und Sicherheit im Kontext künstlicher Intelligenz immer wichtiger wird. Somit ist es auch bei der Auswahl eines geeigneten Chatbot-Anbieters essenziell, die DSGVO-Konformität zur Priorität zu machen. Firmen wie OpenAI oder Google, die ihre Server teils in Drittstaaten stationieren und wenig Transparenz zum Thema Datenschutz bieten, sind hier eher keine Vorbilder.

Die menschliche Komponente beibehalten

Die Fähigkeiten von KI-Chatbots sind ohne Frage beeindruckend. Sei es durch Schnelligkeit, 24/7-Erreichbarkeit oder Effizienz – Chatbots können in vielen verschiedenen Bereichen mit ihren Vorteilen überzeugen. Und doch gibt es auch immer wieder Momente, in denen der Mensch der bessere Ansprechpartner ist. Umso wichtiger ist es, dass ein Chatbot in der Lage ist, seine Grenzen klar und transparent zu kommunizieren.

KI-Bots: Vertrauen ist gut, Kontrolle ist besser

Der Einsatz von KI-Chatbots will gelernt sein: Unternehmen und Privatpersonen, die bei der Auswahl ihrer Technologie-Anbieter berücksichtigen, dass die KI kontrollierbar und datenschutzgerecht ist, sind auf der richtigen Seite. So werden Chatbot-Fails verhindert und ein sicherer und seriöser Umgang mit künstlicher Intelligenz sichergestellt.