ElevenLabs für Desinformation missbraucht
- KI-Stimmen wurden genutzt, um gefälschte Videos in Europa zu verbreiten
- Die Kampagne „Operation Undercut“ zielte darauf ab, die Ukraine zu diskreditieren
- ElevenLabs-KI ermöglichte mehrsprachige Propaganda ohne erkennbare Akzente
Generative KI hat sich als leistungsfähiges Werkzeug in verschiedenen Bereichen etabliert, aber ihre missbräuchliche Nutzung nimmt ebenfalls zu. Eine der neuesten Entwicklungen betrifft die Verwendung von KI-generierten Stimmen in politischen Desinformationskampagnen, berichtet TechCrunch. Eine solche Kampagne, die als „Operation Undercut“ bezeichnet wird, wurde von einer russischen Organisation ins Leben gerufen, um die europäische Unterstützung für die Ukraine zu untergraben. Die verwendeten Videos verbreiteten Falschinformationen und manipulierende Botschaften über ukrainische Politiker und die Effektivität westlicher Hilfe. Besonders auffällig war der Einsatz von KI-Voice-Technologie, die es ermöglichte, diese Inhalte in verschiedenen europäischen Sprachen ohne erkennbare Akzente zu erstellen.
Die Technologie hinter diesen Kampagnen war unter anderem die KI-Voice-Plattform von ElevenLabs, einem Unternehmen, das KI-generierte Stimmen für kommerzielle Zwecke anbietet. Forscher von Recorded Future analysierten diese Kampagne und stellten fest, dass KI-generierte Stimmen dazu beitrugen, die Inhalte professioneller und glaubwürdiger erscheinen zu lassen. Dies ermöglichte es, die Videos schnell und in mehreren Sprachen zu verbreiten, was die Reichweite und den Einfluss der Desinformation erheblich steigerte. Interessanterweise fanden sie jedoch auch Videos mit echten menschlichen Stimmen, die aufgrund ihres russischen Akzents leicht als Fälschungen erkennbar waren, was den Kontrast zwischen KI und echten Stimmen unterstrich.
Obwohl die Kampagne selbst als weitgehend ineffektiv in Bezug auf ihre Auswirkungen auf die öffentliche Meinung eingeschätzt wird, verdeutlicht der Einsatz von KI in solchen Kontexten die wachsenden Gefahren von Desinformation. Unternehmen wie ElevenLabs, die Technologien entwickeln, die Stimmen authentisch nachahmen können, müssen sicherstellen, dass solche Tools nicht missbraucht werden. In Reaktion auf ähnliche Vorfälle hat ElevenLabs neue Sicherheitsmaßnahmen eingeführt, um die unbefugte Nutzung ihrer Technologie zu verhindern.