Un PDG d’une licorne californienne qui court dans un faux studio Ghibli, poursuivi par Miyazaki en colère… voilà l’une des vidéos les plus virales de la semaine, générée par Sora 2, la nouvelle arme d’OpenAI. L’outil, présenté comme le « GPT‑3.5 du vidéo », débarque avec une promesse de réalisme saisissant, de sons parfaitement synchronisés et de physiques plus crédibles que jamais. Sauf que derrière les rires et les mèmes, l’affaire a tout l’air d’un cocktail explosif.
Car OpenAI ne s’est pas contenté de sortir un simple modèle de génération vidéo. L’entreprise a lancé simultanément une application sociale Sora, disponible sur iOS et réservée aux invités, reposant sur un flux à la TikTok… sauf que chaque vidéo est 100 % artificielle. Pas de filtre, pas d’édition humaine, tout est produit par l’algorithme. Et au cœur du dispositif se cache Cameo, une fonction qui permet d’intégrer son propre visage vérifié dans les contenus, avec la possibilité d’apparaître dans ceux de ses amis. Sur le papier, cela sonne comme une forme de contrôle du consentement, dans les faits cela ouvre la porte à une avalanche de remix et de dérives.
Les réactions se sont immédiatement enflammées. D’un côté, les enthousiastes saluent une « explosion cambrienne de créativité », pour reprendre les mots de Sam Altman lui‑même. Les mashups absurdes, comme le fameux clip d’Altman « volant » des dessins de Miyazaki, nourrissent une frénésie de détournements et de blagues. Pour certains, Sora 2 pourrait bien dominer la course engagée contre Vibes de Meta ou Veo de Google, grâce à sa vitesse et à son côté immersif.
De l’autre côté, les critiques sont féroces. Vox a qualifié Sora 2 « d’abomination impie », dénonçant une machine à deepfakes et à contenus toxiques. L’un des premiers tests a déjà montré des vidéos de policiers factices, de personnages historiques travestis, de dirigeants caricaturés en voleurs de supermarché. Et puisque l’application autorise par défaut l’usage de contenus protégés (Rick & Morty qui rencontrent Bob l’éponge, oui, ça existe déjà), les juristes parlent de violation massive de droits d’auteur.
OpenAI assure avoir installé des garde‑fous pour bloquer la nudité, la violence ou l’usurpation malveillante. Sauf que la comparaison qui revient sans cesse est celle d’« une arme automatique avec un cran de sûreté »… autrement dit, pas de quoi rassurer grand‑monde. Le paradoxe est piquant puisque l’entreprise se revendique toujours d’une mission humaniste inscrite dans sa charte de 2018, mais choisit aujourd’hui de saturer nos écrans de vidéos addictives et trompeuses.
Pour l’instant, Sora 2 se déploie aux États‑Unis et au Canada, via des invitations envoyées depuis Sora.com, avec une version gratuite assez généreuse et un mode « Pro » réservé aux abonnés ChatGPT Plus. La demande est telle que l’application s’est hissée en quelques heures dans le top 3 de l’App Store.
Alors que certains s’amusent à crier « génie », d’autres voient un désastre annoncé pour la confiance dans l’information en ligne. Le verdict est peut‑être déjà écrit… car si la frénésie des vidéos Sora 2 continue, il se pourrait que bientôt, personne ne croie plus à rien sur internet. Et c’est peut‑être ça, la vraie apocalypse que l’IA nous prépare.

