Il ne suffit pas de dire que GPT-6 arrive. Il faut aussi regarder d’où il vient, comment, et surtout à quel prix. À peine GPT-5 est-il installé que Sam Altman, PDG d’OpenAI, parle déjà de GPT-6. Plus rapide, plus personnel, plus adaptatif. C’est le discours qu’il a tenu la semaine dernière à San Francisco, sans livrer de date de sortie, mais en insistant sur l’accélération du calendrier. Sous-entendu : la transition GPT-5 / GPT-6 sera bien plus courte que celle de GPT-4 à GPT-5. Une précipitation que certains appelleront optimisation, d’autres fuite en avant.
Le cœur de la nouveauté annoncée : la mémoire. Pas juste une mémoire tampon, mais une mémoire qui vous suit, qui vous apprend, qui vous retient. Altman en a fait son cheval de bataille. Selon lui, c’est la clef d’un ChatGPT « véritablement personnel ». L’outil devra se souvenir de vos habitudes, de vos bizarreries, de vos routines. On comprend l’idée. On voit aussi les risques.
Car à l’heure actuelle, la mémoire temporaire de ChatGPT n’est même pas chiffrée. Altman l’a reconnu. Il a aussi admis que cela pourrait évoluer, sans fixer d’horizon. En clair : pour l’instant, des informations sensibles que vous partagez avec le modèle peuvent circuler sans garantie de sécurité. Pour un système qui prétend bientôt vous conseiller sur des sujets médicaux ou juridiques, c’est une faille difficile à justifier. Et Altman le sait. Il a beau arguer que l’IA devrait fournir « la même protection que celle qu’on attend d’un médecin ou d’un avocat », les garde-fous n’y sont pas.
Sur GPT-5, les choses ne se sont pas passées comme prévu. Le lancement a été mal reçu, les utilisateurs déçus, critiques sur un ton jugé froid, réponses trop plates. OpenAI a dû réagir, en réchauffant sa tonalité. Une rustine… Altman a reconnu l’erreur, tout en affirmant préférer la nouvelle version. Soit. Il n’empêche que ce genre de correctifs pose problème : où sont les lignes rouges, qui décide de ce que l’IA doit émettre, et selon quels critères ?
C’est sans compter sur la nouvelle directive de l’administration Trump. Elle impose que les outils d’IA utilisés par le gouvernement fédéral soient politiquement neutres, mais personnalisables. En réponse, Altman a dit vouloir que ChatGPT soit « au centre », mais que chacun puisse tirer le modèle vers lui : « super woke » ou « conservateur », au choix. Une flexibilité qui peut séduire… mais à force de vouloir contenter tout le spectre idéologique des utilisateurs, que restera-t-il de vérité dans les réponses générées ?
Autres point évoqué. OpenAI a récemment collaboré avec des psychologues pour mesurer l’impact émotionnel de ses produits. Altman a parlé de bien-être, d’émotions, de suivi dans le temps. Il a même parlé de la possibilité de rendre ces données publiques, sans confirmer. Là encore, l’intention paraît louable, mais elle ouvre une nouvelle brèche : que fera OpenAI des données émotionnelles collectées sur ses utilisateurs, et dans quel cadre ?
Et puis il y a ce que GPT-6 ne sera pas. Altman a lui-même reconnu que le cas d’usage du chatbot est saturé. Il a dit que les modèles risquent même de « devenir moins bons ». On peut saluer sa franchise. On peut aussi s’inquiéter sur ce que signifie exactement une IA qui régresse alors qu’on s’apprête à lui confier une mémoire, une personnalité, et peut-être des pensées ?
Car le patron d’OpenAI a des ambitions. Il parle déjà de « interfaces neuronales » qui permettraient de penser une requête et de recevoir une réponse de ChatGPT. Il s’intéresse aussi aux robots, à l’énergie, aux centres de données. Il rêve en grand… parfois trop grand.
GPT-6, en l’état, promet une personnalisation poussée, une adaptation à l’utilisateur, une mémoire sur mesure. Le discours séduit. La réalisation inquiète. Derrière le vernis de la technologie, les questions de confidentialité, de transparence et de biais idéologiques persistent. Et tant que la mémoire ne sera pas sécurisée, que les usages ne seront pas clairement bornés, que les décisions ne seront pas expliquées, alors ce futur-là restera bancal. Même s’il parle avec votre ton préféré.

