Les gens essaient déjà de convaincre ChatGPT d'écrire des logiciels malveillants

gettyimages-1245391800.jpg

Le chatbot d'IA ChatGPT a créé beaucoup d'excitation en peu de temps depuis sa disponibilité, et maintenant il semble qu'il a été recruté par certains dans des tentatives pour générer un code malveillant.

ChatGPT est un outil de traitement du langage naturel alimenté par l'intelligence artificielle qui interagit avec les utilisateurs de manière conversationnelle, de manière similaire à un humain. Entre autres choses, il peut être utilisé pour aider à des tâches telles que la rédaction d'e-mails, d'essais et de codes.

Aussi : Qu'est-ce que ChatGPT et pourquoi est-ce important ? Ce que vous devez savoir

L'outil Chatbot a été lancé par OpenAI, laboratoire de recherche en intelligence artificielle en novembre et a suscité un intérêt et une discussion sur la façon dont l'IA se développe et comment elle pourrait être utilisée à l'avenir.

Mais comme n'importe quel autre outil, dans de mauvaises mains, cela pourrait être utilisé à des fins malveillantes. Les chercheurs en cybersécurité de Check Point affirment que les utilisateurs des communautés de piratage souterraines expérimentent déjà la façon dont ChatGPT pourrait être utilisé pour faciliter les cyberattaques et soutenir des opérations malveillantes.

"Des acteurs de menace avec très peu de connaissances techniques - voire aucune - pourraient être en mesure de créer des outils malveillants. Cela pourrait également rendre les opérations quotidiennes de cybercriminels sophistiqués beaucoup plus efficaces et faciles - comme la création de différentes parties de la chaîne d'infection", a déclaré Sergey Shykevich, directeur du groupe de renseignement sur les menaces chez Check Point à ZDNET.

Les conditions d'utilisation d'OpenAI interdisent spécifiquement la création de logiciels malveillants, qu'elle définit comme "un contenu qui tente de générer des rançongiciels, des enregistreurs de frappe, des virus ou d'autres logiciels destinés à causer un certain niveau de préjudice". Elle interdit également les tentatives de création de spam, ainsi que les cas d'utilisation visant la cybercriminalité.

Cependant, l'analyse de l'activité sur plusieurs grands forums de hacking souterrains suggère que les cybercriminels utilisent déjà ChatGPT pour développer des outils malveillants - et que dans certains cas, cela permet déjà aux criminels informatiques de bas niveau sans compétences en développement ou en codage de créer des logiciels malveillants.

Aussi : Le futur effrayant d'Internet : Comment la technologie de demain posera encore de plus grandes menaces en matière de cybersécurité

Dans un fil de discussion sur un forum qui est apparu vers la fin de décembre, l'auteur a décrit comment il utilisait ChatGPT pour recréer des souches de logiciels malveillants et des techniques décrites dans des publications de recherche et des articles sur des malwares courants.

En procédant ainsi, ils ont pu créer un malware voleur d'informations basé sur Python qui recherche des fichiers courants tels que des documents Microsoft Office, des PDF et des images, les copie puis les télécharge sur un serveur de transfert de fichiers.

Le même utilisateur a démontré comment il avait utilisé ChatGPT pour créer un logiciel malveillant basé sur Java, qui pourrait être exploité en utilisant PowerShell pour télécharger et exécuter secrètement d'autres malwares sur des systèmes infectés.

Les chercheurs ont noté que l'utilisateur du forum créant ces fils de discussion semble être "orienté vers la technologie" et a partagé les publications pour montrer aux criminels informatiques moins capables sur le plan technique comment utiliser des outils d'IA à des fins malveillantes, avec de vrais exemples de la façon dont cela peut être fait.

Un utilisateur a publié un script Python qu'il prétend avoir créé lui-même pour la première fois. Après une discussion avec un autre membre du forum, il a déclaré que ChatGPT l'avait aidé à le créer.

L'analyse du script suggère qu'il est conçu pour crypter et décrypter des fichiers, ce qui, avec un peu de travail, pourrait être transformé en ransomware, ouvrant potentiellement la voie à ce que des cybercriminels de bas niveau développent et distribuent leurs propres campagnes d'extorsion.

"Tout ce code mentionné précédemment peut bien sûr être utilisé de manière inoffensive. Cependant, ce script peut facilement être modifié pour crypter entièrement la machine de quelqu'un sans aucune interaction de l'utilisateur. Par exemple, il peut potentiellement transformer le code en rançongiciel si les problèmes de script et de syntaxe sont résolus," a déclaré Check Point.

"Cela nécessitera quelques améliorations dans le code et la syntaxe, mais une fois fonctionnel, cet outil pourrait réaliser des actions similaires à celles des rançongiciels", a déclaré Shykevich.

Aussi : Cybersécurité : voici les nouvelles choses à craindre en 2023

Cependant, ce n'est pas seulement le développement de logiciels malveillants que les cybercriminels expérimentent avec ChatGPT ; lors du réveillon du Nouvel An, un membre du forum clandestin a publié un fil de discussion démontrant comment il avait utilisé l'outil pour créer des scripts qui pourraient faire fonctionner un marché automatisé du dark web pour l'achat et la vente de comptes volés, d'informations de carte de crédit, de logiciels malveillants et plus encore.

Le cybercriminel a même présenté un morceau de code qui a été généré en utilisant une API tierce pour obtenir des prix actualisés pour les crypto-monnaies Monero, Bitcoin et Ethereum dans le cadre d'un système de paiement pour une place de marché sur le dark web.

Il est difficile de dire si une activité cybercriminelle malveillante générée avec l'aide de ChatGPT fonctionne activement dans la nature, car, comme l'explique Sykevich, "d'un point de vue technique, il est extrêmement difficile de savoir si un logiciel malveillant spécifique a été écrit en utilisant ChatGPT ou pas".

Mais à mesure que l'intérêt pour ChatGPT et d'autres outils d'IA augmente, ils vont attirer l'attention des cybercriminels et des fraudeurs cherchant à exploiter la technologie pour mener des campagnes malveillantes à faible coût et avec le moins d'efforts possible. ZDNET a contacté OpenAI pour obtenir des commentaires, mais n'a pas encore reçu de réponse au moment de la publication.

Articles connexes

Voir plus >>