OpenAI zögert bei der Erkennung von KI-Texten
- OpenAI zögert, ein Tool zur Erkennung von ChatGPT-Texten zu veröffentlichen
- Text-Wasserzeichen könnte Texte von ChatGPT mit unsichtbaren Markierungen versehen
- Es bestehen Bedenken hinsichtlich der Umgehung durch böswillige Akteure
OpenAI arbeitet an einem Tool, das speziell dafür entwickelt wurde, Texte zu erkennen, die von ChatGPT generiert wurden. Diese Methode der Textmarkierung könnte dabei unterstützen, Betrugsfälle von Studenten aufzudecken, bei denen ChatGPT zur Erstellung von Hausarbeiten verwendet wird. Allerdings zögert OpenAI, dieses Tool freizugeben, da die damit verbundenen Risiken und Auswirkungen sorgfältig abgewogen werden müssen.
Text-Wasserzeichen-Methode
Die Textmarkierungsmethode funktioniert durch kleine Anpassungen in der Wortauswahl von ChatGPT, die als unsichtbares Wasserzeichen dienen. Ein separates Tool könnte diese Markierungen später erkennen. Diese Methode unterscheidet sich von früheren Versuchen zur Erkennung von AI-generierten Texten, die oft ineffektiv waren. OpenAI hat seinen früheren Textdetektor aufgrund geringer Genauigkeit eingestellt.
Risiken abwägen
Während die Textmarkierung technisch vielversprechend ist, bestehen bedeutende Risiken. So könnte die Methode von böswilligen Akteuren leicht umgangen werden, etwa durch Übersetzungssysteme oder das Einfügen und Löschen von Sonderzeichen. Außerdem gibt es Bedenken, dass diese Methode nicht-englische Sprecher benachteiligen könnte, indem sie die Nutzung von AI-Schreibwerkzeugen stigmatisiert.
Forschung und Optimierung notwendig
OpenAI bestätigt, dass die Forschung zu Textmarkierungen weitergeht, betont jedoch die Notwendigkeit einer sorgfältigen und überlegten Vorgehensweise, um unbeabsichtigte negative Auswirkungen zu vermeiden. Trotz hoher Genauigkeit bei lokaler Manipulation bleibt die Methode anfällig für globale Veränderungen und bedarf weiterer Forschung und Optimierung, bevor eine endgültige Entscheidung zur Veröffentlichung getroffen wird.