ChatGPT pourraient servir à créer des escroqueries beaucoup plus difficiles à détecter

Image illustrée d'un robot à l'intérieur d'un ordinateur avec une bulle de texte
(Crédit photo: Getty)

Les escroqueries sur Internet pourraient devenir beaucoup plus dangereuses maintenant, grâce à l'accès illimité à ChatGPT, le chatbot doté d'une intelligence artificielle qui ne semble jamais quitter les gros titres.

C'est ce qui ressort d'un rapport publié au début du mois par les chercheurs en cybersécurité de Norton. Dans ce rapport, l'entreprise présente trois moyens clés par lesquels les cybercriminels pourraient utiliser ChatGPT pour rendre les arnaques en ligne plus efficaces : la génération de faux contenus, le phishing à grande échelle et la création plus rapide de malwares.

Norton affirme également que la capacité à générer des "fausses informations ou des désinformations de haute qualité à grande échelle" pourrait aider les cybercriminels à "semer la méfiance et à façonner des récits dans différentes langues" avec facilité.

Lutter contre la désinformation

Les escrocs qui cherchent à propager de fausses informations pourraient également s'en donner à cœur joie avec ChatGPT, disent-ils, en les générant en masse et sur différents tons de voix.

Enfin, le chatbot déjà célèbre pourrait être utilisé dans des "campagnes de harcèlement" sur les médias sociaux, pour réduire les gens au silence ou les intimider, explique M. Norton, ajoutant que les conséquences pourraient être "effrayantes" : 

Les pirates peuvent également utiliser ChatGPT dans des campagnes de phishing, qui, dans de nombreux cas, sont menées par des pirates ne maîtrisant pas la langue du destinataire, ce qui aide les victimes à repérer une tentative d'escroquerie évidente dans le cas d'une orthographe et d'une grammaire médiocres. Avec ChatGPT, ils pourraient créer des emails très convaincants, à grande échelle.

Enfin, le codage de malwares pourrait ne plus être réservé aux pirates chevronnés. "Avec la bonne requête, les auteurs novices de logiciels malveillants peuvent décrire ce qu'ils veulent faire et obtenir des extraits de code qui fonctionnent", ont déclaré les chercheurs.

Par conséquent, nous pourrions assister à une augmentation du nombre de malwares ainsi qu'à leur dangerosité. De plus, grâce à la capacité de ChatGPT à "traduire" rapidement et facilement le code source dans des langages de programmation moins courants, davantage de logiciels malveillants pourraient échapper aux solutions antivirus.

Comme tout nouvel outil, ChatGPT sera très probablement utilisé par les escrocs et les pirates informatiques pour atteindre leurs objectifs. C'est aux utilisateurs, ainsi qu'à la communauté de la cybersécurité au sens large, qu'il incombe d'apporter des réponses à ces nouvelles menaces, concluent les chercheurs.

Sead Fadilpašić

Sead is a seasoned freelance journalist based in Sarajevo, Bosnia and Herzegovina. He writes about IT (cloud, IoT, 5G, VPN) and cybersecurity (ransomware, data breaches, laws and regulations). In his career, spanning more than a decade, he’s written for numerous media outlets, including Al Jazeera Balkans. He’s also held several modules on content writing for Represent Communications.