ChatGPT : le nouvel outil préféré des cybercriminels

Darell Mertens 345 vues

Ces dernières semaines, l’intelligence artificielle à fait une entrée tonitruante dans nos vies avec la mise à disposition du public d’outils tels que Midjourney et ChatGPT d’OpenAI. Leurs capacités impressionnantes fais couler beaucoup d’encre et suscitent beaucoup d’enthousiasme sur les réseaux sociaux. Ces technologies ont un énorme potentiel dans beaucoup de domaines, tels que la recherche, la communication, la finance et les services de commerce électronique. Cependant, les cybercriminels ont découvert comment utiliser ces technologies à des fins malveillantes, comme la création de ransomwares et de mails de phishing. C’est en tout cas ce que révèle l’expert en cybersécurité Checkpoint, qui s’alarme de l’utilisation de l’IA à des fins illégales.

ChatGPT au service des cybercriminels malgré lui

ChatGPT est un modèle de langage basé sur l’apprentissage automatique développé par OpenAI. Ses capacités à comprendre, générer et répondre à des textes en langage naturel peuvent être utilisées dans divers secteurs dont la création de contenu, la recherche d’informations et l’assistance à la programmation informatique. Mais comme on pouvait s’y attendre, les cybercriminels ont trouvé un moyen d’exploiter les capacités de l’IA pour donner un coup de pouce à leur « business ».

D’après Checkpoint, un sujet de discussion intitulé « ChatGPT – Avantages des logiciels malveillants » est récemment apparu sur un forum de pirates informatique, dans lequel un individu évoque l’utilisation du robot d’OpenAi pour « recréer des souches de logiciels malveillants à partir des connaissances puisées dans des publications de recherche sur les malwares« .

Par exemple, l’individu a partagé le code d’un malware basée sur Python étant capable de rechercher des types de fichiers courants sur une machine Windows, de les copier dans un dossier aléatoire du dossier « Temp », les compresser et les uploader sur un serveur FTP. La société de cybersécurité Checkpoint a analysé le script présenté sur le forum en question et confirme qu’il est potentiellement fonctionnel. Le script est en fait un voleur de data basique qui recherche, dans l’ordinateur de la victime, 12 types de fichiers courants pouvant contenir des informations sensibles et les envoie ensuite vers un serveur web non sécurisé.

Le hacker a également partagé un simple extrait Java, créé avec l’aide de ChatGPT, qui exécute secrètement un client SSH comme PuTTY et le modifie pour télécharger et lancer n’importe quel malware sur l’ordinateur de la victime.

Une aubaine pour les criminels du Dark Web et les pros du phishing

L’utilisation de ChatGPT à des fins malhonnêtes ne se limite pas aux exemples mentionnés ci-dessus. En effet, les capacités du robot permettent aussi de créer des scripts sophistiqués. Les chercheurs de Ckeckpoint ont découvert un hacker expliquant comment il avait utilisé l’IA d’OpenAi pour automatiser la création d’une place de marché illégale sur le Dark Web.

Les e-mails d’hameçonnage (phishing) sont également un autre moyen pour les cybercriminels de diffuser des logiciels malveillants. Ainsi, ChatGPT pourraient être utilisées pour rédiger des textes plus convaincants afin d’inciter les personnes à cliquer sur des liens ou à télécharger des virus informatiques. Une expérience récente menée par l’expert en cybersécurité a montré qu’il est possible d’utiliser l’IA dans cet objectif, bien qu’il soit nécessaire de contourner les contrôles éthiques de ChatGPT.

Dangers potentiels et contre-mesures

L’utilisation de ChatGPT pour des activités malveillantes constitue donc une menace importante pour la cybersécurité. Plus les hackers adopteront cette méthode, plus la sophistication et la personnalisation des logiciels malveillants et des e-mails phishing augmenteront, ce qui rendra plus difficile leur détection et leur prévention. De plus, l’utilisation de logiciels malveillants générés par l’intelligence artificielle pourrait potentiellement échapper aux logiciels antivirus traditionnels et rendre plus difficile le suivi de la source du logiciel malveillant.

Pour empêcher l’utilisation de ChatGPT et d’autres technologies d’IA dans des buts illégaux, il sera sans doute nécessaire de combiner des mesures techniques et non techniques. Ces dernières comprennent la promotion d’un développement et d’une utilisation responsables de l’intelligence artificielle, la mise en œuvre de réglementations et de directives pour le développement et l’utilisation de l’IA, et la promotion d’une culture de la cybersécurité auprès du grand public, des entreprises et des administrations.

Il sera aussi important que des entreprises telles qu’OpenAI garantissent la sécurité et l’utilisation éthique de leur technologie en mettant en place des contrôles stricts et en surveillant activement toute utilisation malveillante et criminel de leurs modèles d’IA.

Il est clair que l’utilisation de ChatGPT n’en est qu’à ses débuts et présente de nombreux avantages, mais il est important de prendre conscience des nouvelles portes qu’il ouvre à des cybercriminels et de prendre les mesures adéquats pour empêcher toute utilisation abusive.

Partager cet article
Publier un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

adbanner