À mesure que l’intelligence artificielle (IA) progresse, la capacité des machines à imiter l’écriture humaine devient de plus en plus sophistiquée. La preuve en est avec ChatGpt d’OpenAI, qui a gagné en popularité ces dernières semaines pour sa capacité à écrire et à répondre sur des sujets extrêmement variés. Mais cette popularité s’accompagne d’inquiétudes quant à la créativité, au plagiat et à la violation des droits d’auteur. Pour répondre à ces préoccupations, un étudiant en informatique de Princeton, Edward Tian, a développé ChatGpt Zero, une application qui vise à détecter rapidement et efficacement si un texte est écrit par un humain ou un système d’IA.
Comment fonctionne ChatGpt Zero ?
Le système créé par Tian est conçu pour démasquer les textes générés par ChatGpt. Pour ce faire, il analyse des paramètres linguistiques spécifiques, tels que la complexité d’un texte et la variation des temps utilisés. En effet, le jeune étudiant est partie du constat qu’un texte généré par une IA est forcément plus susceptible d’adopter un style uniforme, tandis qu’un texte rédigé par un humain est souvent plus varié. En identifiant ces paramètres linguistiques clés, l’application est donc capable de faire la distinction entre les deux.
Afin de défendre la fiabilité de son application, Tian a comparé un article tiré du magazine The New Yorker et un article rédigé par ChatGpt publié sur un réseau social. Selon lui, son application a pu distinguer les deux textes et démasquer celui écrit par l’intelligence artificiel d’OpenAI.
Toutefois, l’application lancée début janvier montre déjà ses limites. Des milliers de personnes qui l’ont testé ont signalé qu’elle n’est pas toujours fiable et qu’elle connaît de nombreuses pannes. D’après certains, elle serait facile à contourner en demandant à l’intelligence artificielle de varier son style d’écriture pour un même texte pour que ChatGpt Zero n’y voit que du feu…
Droits d’auteur et préoccupations éthiques
La création de ChatGpt Zero intervient dans un contexte de débat croissant sur les textes produits grâce à ChatGpt. Plusieurs écoles et universités du monde entier ont commencé à interdire l’utilisation ce système dans les travaux universitaires en raison de la difficulté à distinguer les textes générés par l’IA de ceux d’un humain, et donc, du risque accru de tricherie des étudiants.
Selon Edward Tian, le système de détection « n’a pas pour but d’être un outil pour empêcher l’utilisation de ces technologies, mais de pouvoir les adopter de manière responsable. Cette appli est importante car elle nous aide à comprendre et à identifier les textes générés par l’IA, et à prendre des décisions éclairées quant à leur utilisation. »
Hélas, les problèmes de triches ne sont pas les seuls. les experts en cybersécurité se sont également alarmés de la capacité de ChatGpt à écrire du code pour créer des logiciels malveillants. Des hackers se sont d’ailleurs empressés d’exploiter cet outil pour mener des opérations illégales sur internet.
Enfin, l’éthique et la bienséance de l’utilisation de l’IA empiètent également sur le domaine de la propriété intellectuelle en raison, d’une part, de l’opacité des sources d’informations que ChatGpt utilise sans jamais les citer, ce qui pourrait constituer une violation des droits d’auteur. Il est aussi essentiel de définir les règles pour déterminer qui est propriétaire de ces créations autogénérées. Sans un cadre légal adapté, il pourrait y avoir une incertitude juridique concernant la responsabilité en cas de plagiat ou d’utilisation illégale des contenus produits par les IA.