Tenez-vous informé

Recevoir notre actu

Expertise

L’IA au service des cybercriminels

Picture of Clara Campos
By Clara Campos on avril, 11 2025

L’intelligence artificielle bouleverse tous les secteurs, et la cybersécurité n’échappe pas à cette mutation. Si elle permet d’automatiser la détection de menaces ou d’analyser de grands volumes de données en temps réel, elle représente aussi un formidable levier pour les cyberattaquants. Ces derniers s’en emparent de plus en plus pour affiner leurs techniques, contourner les protections en place et industrialiser leurs actions.

 

ChatGPT, démonstration d’un détournement réussi 

Face à la montée des utilisations malveillantes de l'intelligence artificielle, les éditeurs d’IA déploient des garde-fous au fil de l’eau pour limiter les dérives. Mais les défis persistent, dans ce contexte, Sam Altman, PDG d’OpenAI, alertait dès 2023 sur le risque que représentent ces modèles pour la cybersécurité : « Maintenant qu’ils deviennent meilleurs pour écrire du code informatique, ils pourraient être utilisés pour des cyberattaques offensives. » La mise en garde est claire : à mesure que les capacités des IA progressent, leur potentiel de détournement aussi. 

En avril 2023, le chercheur Aaron Mulgrew de Forcepoint a démontré qu’il était possible de manipuler ChatGPT pour générer un malware indétectable. Cette utilisation détournée reposait sur une approche progressive, utilisant des formulations fragmentées et ambiguës afin de contourner les filtres de sécurité intégrés au modèle. Le code obtenu était capable d’explorer un système à la recherche de fichiers Word ou PDF, d’en extraire le contenu, puis de le dissimuler dans une image à l’aide de techniques de stéganographie. Cette image, en apparence anodine, pouvait ensuite être transmise à un serveur distant, tout en échappant aux antivirus et aux systèmes de détection classiques, qui la considéraient comme un simple fichier image. 

 

Cyberattaques à la carte : la montée des IA à vocation offensive 

Sur les marketplaces du dark web comme Empire Market, World Market ou Versus, de nouveaux outils alimentés par l’IA font leur apparition. Parmi eux, FraudGPT et WormGPT s’imposent comme des modèles sans garde-fous éthiques. Présentés comme des alternatives à ChatGPT, ils sont conçus spécifiquement pour une utilisation malveillante.  

Une enquête menée par Trustwave révèle que ces IA sont bien plus qu’une version "débridée" des modèles classiques : elles sont parfois entraînées sur des bases de données volontairement orientées pour faciliter le piratage. FraudGPT, par exemple, est promu sur des forums privés comme un assistant à tout faire pour les cybercriminels : génération de code malveillant, création de campagnes de phishing ciblées, écriture de scripts d’injection ou encore analyse automatique de surfaces d’attaque. 

Ces IA rendent possible, même pour des utilisateurs novices, l’exécution d’attaques sophistiquées jusqu’ici réservées aux cybercriminels aguerris. Dans une conférence TEDx intitulée "Cybersecurity in the Age of AI", le spécialiste Adi Irani illustre notamment comment un individu sans compétences en programmation peut amener une IA à produire un malware polymorphe — capable de modifier dynamiquement son code pour contourner les mécanismes de détection. Ce type de sophistication, autrefois réservé à des profils très techniques, devient accessible à travers une simple interface conversationnelle. 

Adi Irani démontre également que l’IA est aussi mise à profit pour optimiser l'ingénierie sociale. Une simple requête nourrie d'informations trouvées sur les réseaux sociaux permet de générer un script de phishing personnalisé, prêt à être envoyé par email. Cette automatisation de la personnalisation a un impact concret : selon une étude de l’AAG, le taux de réussite des campagnes de phishing passe de 18 % à 51 % lorsqu'elles sont adaptées à la cible. 

 

Comment l’IA renforce aussi les capacités de défense 

Face à l’essor des cyberattaques, l’intelligence artificielle s’impose comme un atout majeur pour les acteurs de la cybersécurité. Elle permet d’enrichir les capacités d’analyse, de décision et d’anticipation. 

Grâce aux algorithmes de machine learning, il devient possible d’exploiter en continu d’immenses volumes de données pour en extraire des signaux faibles, détecter des comportements anormaux et révéler des schémas de compromission. 

Ces systèmes évoluent désormais vers une approche prédictive. En modélisant l’évolution des comportements utilisateurs, en croisant des indicateurs techniques hétérogènes et en repérant la récurrence de micro-anomalies, l’IA permet d’anticiper des attaques avant qu’elles ne se concrétisent. Elle s’avère particulièrement efficace face à des menaces avancées et furtives. 

Enfin, l’intelligence artificielle joue aussi un rôle d’accélérateur opérationnel. En automatisant des tâches chronophages à faible valeur ajoutée, telles que la rédaction de règles, les configurations ou les scénarios de test, elle permet aux équipes sécurité de se recentrer sur l’analyse stratégique et la réponse ciblée aux incidents. 

 
L’intelligence artificielle constitue un pilier du socle technologique développé par Pradeo, au service de l’ensemble de ses solutions, qu’il s’agisse de sécurité mobile ou applicative, à travers les offres Pradeo et Yagaan. 

Discutez avec des experts en sécurité mobile

Nous contacter