ChatGPT kann jetzt reden wie ein Mensch
- OpenAI führt hyper-realistisches Voice-Feature für ChatGPT Plus ein
- Der neue Sprachmodus bietet vier voreingestellte Stimmen, keine Imitationen
- Einführung im Herbst 2024 geplant
OpenAI hat begonnen, den Advanced Voice Mode von ChatGPT, eine hyper-realistische Sprachantwortfunktion, für eine ausgewählte Gruppe von ChatGPT Plus Nutzern einzuführen. Dieser neue Modus, bekannt als GPT-4o, beeindruckte bereits bei einer Demo im Mai mit seiner Ähnlichkeit zu menschlichen Stimmen. Die erste Alpha-Version steht nun zur Verfügung, wobei die vollständige Einführung für den Herbst 2024 geplant ist.
Multmodale Technologie
Die neue Sprachtechnologie nutzt ein multimodales Modell, das Spracheingabe, Verarbeitung und Sprachausgabe in einem System vereint, was die Latenzzeit erheblich reduziert. GPT-4o kann zudem emotionale Intonationen in der Stimme des Nutzers erkennen, wie Traurigkeit oder Begeisterung.
Sorgfältige Überwachung und Sicherung
OpenAI überwacht die Nutzung des neuen Sprachmodus sorgfältig, um potenzielle Sicherheitsrisiken zu minimieren. In den letzten Monaten wurde GPT-4o von über 100 externen Testern in 45 verschiedenen Sprachen getestet. Ein Sicherheitsbericht wird für Anfang August erwartet.
Voreingestellte Stimmen undrechtliche Maßnahmen
Der Advanced Voice Mode bietet vier voreingestellte Stimmen - Juniper, Breeze, Cove und Ember - die in Zusammenarbeit mit bezahlten Synchronsprechern entwickelt wurden. Die ursprünglich in der Demo gezeigte Stimme, die Scarlett Johansson ähnelte, ist nicht mehr verfügbar. OpenAI hat zudem Maßnahmen ergriffen, um die Imitation anderer Stimmen und die Erstellung urheberrechtlich geschützter Inhalte zu verhindern.