Geoffrey Hinton avertit : « l’IA pourrait entraîner l’extinction de l’humanité d’ici 30 ans »

Raphael Gelin 2.1k vues

« Nous n’avons jamais été confrontés à quelque chose de plus intelligent que nous… » C’est par ces mots inquiétants que Geoffrey Hinton, surnommé le « parrain de l’intelligence artificielle », a récemment mis en garde contre les dangers liés au développement incontrôlé de l’IA. Selon ses dernières déclarations sur BBC Radio 4, Hinton estime désormais qu’il y a entre 10 et 20 % de chances que l’intelligence artificielle mène à l’extinction de l’humanité.

Lorsqu’on lui a demandé si son opinion avait changé depuis ses précédentes estimations (où il évoquait une probabilité de 10 %), Hinton a répondu sans détour : « Pas vraiment, c’est plutôt entre 10 et 20 [pour cent]. » Ces chiffres, bien que minoritaires, illustrent un risque qui ne cesse d’inquiéter la communauté scientifique. Pour contextualiser ce danger, Hinton a utilisé une analogie frappante : il a comparé la relation future entre les humains et les systèmes d’IA à celle d’un adulte face à un enfant de trois ans. « Imaginez-vous avec un enfant de trois ans… Nous serons les enfants, » a-t-il affirmé, insistant sur notre vulnérabilité grandissante face à des entités potentiellement bien plus intelligentes.

Des préoccupations amplifiées par la rapidité du progrès technologique

Hinton n’a pas caché sa surprise face à la vitesse avec laquelle l’intelligence artificielle s’est développée ces dernières années. « Je ne pensais pas que cela évoluerait aussi rapidement, » a-t-il admis. En mai 2023, il avait démissionné de son poste chez Google pour avoir la liberté d’exprimer ses inquiétudes concernant l’absence de régulations adéquates dans ce secteur. Il avait alors souligné que certains mauvais acteurs pourraient utiliser ces technologies à des fins malveillantes.

Un exemple récent concerne OpenAI, où des tensions internes ont éclaté autour des priorités stratégiques entre sécurité et rentabilité. Hinton s’est félicité du renvoi du PDG Sam Altman, orchestré par Ilya Sutskever, un ancien élève dont il est particulièrement fier, tout en qualifiant la situation d’ »extrêmement regrettable« . Selon lui, OpenAI s’éloigne dangereusement des principes initiaux axés sur la sécurité pour privilégier des objectifs purement lucratifs.

Un appel urgent aux gouvernements

Pour le Nobel, les grandes entreprises technologiques ne peuvent pas être laissées seules responsables de garantir la sécurité liée à l’IA. « La seule chose qui peut obliger ces grandes entreprises à investir davantage dans la recherche sur la sécurité, c’est une régulation gouvernementale, » a-t-il martelé. L’enjeu est colossal : il ne s’agit pas simplement d’une question économique ou morale mais bien d’une menace existentielle pour toute l’humanité.

Pendant ce temps, des pays comme la Chine continuent de progresser rapidement dans le développement de modèles open source et dans la production locale de puces dédiées à l’IA. Ces initiatives permettent non seulement à Pékin de contourner les restrictions imposées par les États-Unis (notamment sur les semi-conducteurs) mais également de rivaliser avec leurs homologues occidentaux. Une course mondiale effrénée qui ajoute une dimension géopolitique au débat sur l’encadrement sécuritaire des technologies liées à l’intelligence artificielle.

Alors que Geoffrey Hinton reçoit aujourd’hui des distinctions prestigieuses comme le prix Nobel pour ses contributions scientifiques novatrices, ses avertissements doivent être pris au sérieux par tous : chercheurs, législateurs et dirigeants d’entreprises technologiques inclus. Si rien n’est fait pour mettre en place des cadres moraux et réglementaires stricts, le scénario qu’il décrit pourrait bien devenir une sombre prophétie…

Sources :The Guardian
Partager cet article