Trois nouvelles voix IA signées OpenAI sont là. Ça fait un moment qu’ils bossent dessus, et malgré quelques petits scandales, ils n’ont pas ralenti la cadence.
OpenAI a lancé gpt-4o-transcribe, gpt-4o-mini-transcribe et gpt-4o-mini-tts. Des noms qui ne font pas rêver, mais des technos qui promettent. Ces outils servent à la transcription et à la génération vocale via API, donc surtout pour les développeurs et leurs applis tierces. Les curieux peuvent aussi tester sur OpenAI.fm, un site démo où on peut jouer avec les voix sans coder une seule ligne.
La vraie nouveauté : il est possible de personnaliser ces voix selon ses envies. Un accent anglais bien posé ? Une intonation dramatique ? Une voix apaisante façon prof de yoga zen ? Tout ça se règle d’un simple prompt texte.
Jeff Harris, ingénieur chez OpenAI, a montré en live à VentureBeat comment une même voix pouvait passer du savant fou au coach méditatif rien qu’avec quelques instructions écrites. L’idée derrière tout ça : éviter que quelqu’un puisse dire que l’IA copie une voix existante… même si l’affaire Johansson a prouvé que le sujet reste sensible.
Plus précis que Whisper
Ces modèles reprennent la base du GPT-4o sorti en mai 2024 mais ont été entraînés spécifiquement pour exceller dans tout ce qui touche à la parole et sa transcription. Le but est clair : remplacer Whisper, le précédent modèle open source lancé par OpenAI il y a deux ans.
Les améliorations sont notables :
- Moins d’erreurs dans les retranscriptions
- Meilleure reconnaissance des accents
- Fonctionne mieux dans le bruit ambiant
Un graphique publié par OpenAI montre que gpt-4o-transcribe descend jusqu’à un taux d’erreur de seulement 2,46% en anglais sur un large panel de tests industriels.
Harris précise aussi que ces modèles détectent mieux quand quelqu’un termine une phrase grâce à un « détecteur d’activité sémantique ». Dit autrement, il en sera fini des coupures hasardeuses ou les phrases tronquées lors des retranscriptions automatiques.
Mais petite limite quand même : ils ne savent pas différencier plusieurs intervenants dans une conversation (« diarization » absente). Si plusieurs personnes parlent en même temps ou se relaient rapidement… eh bien ce sera pris comme une seule grande phrase continue.
Si vous gérez un service client automatisé ou voulez juste éviter de prendre des notes en réunion, ces nouveaux outils ont clairement leur place. L’intégration est facile : neuf lignes de code suffisent pour ajouter ces fonctionnalités vocales aux applis basées sur GPT-4o classique.
Prix & accès immédiat
Pas besoin d’attendre pour essayer ces nouveaux outils :
- gpt-4o-transcribe → $6 / million de tokens audio (~$0.006/minute)
- gpt-4o-mini-transcribe → $3 / million (~$0.003/minute)
- gpt-4o-mini-tts → $0.60 / million tokens texte & $12 / million tokens audio (~$0.015/minute)
Côté rapports qualité/prix face aux concurrents comme ElevenLabs ou Hume AI… disons que chacun a ses avantages selon l’usage recherché , certains préfèreront payer moins cher quitte à perdre légèrement en précision ou fonctionnalités spécifiques comme le multi-haut-parleur.
Et afin de rendre le lancement plus fun, OpenAI organise aussi un petit concours autour du site démo OpenAI.fm. Ceux qui partageront les créations vocales les plus originales sur X (@openai) pourraient gagner… une radio customisée Teenage Engineering. Pas sûr que ça change votre vie mais … il n’y en aurait que trois exemplaires au monde.