Un nouveau rapport d’OpenAI met en lumière la manière dont les cybercriminels, y compris des groupes soutenus par des États, exploitent l’intelligence artificielle pour mener des attaques plus rapides et plus efficaces. De la création de malwares à la surveillance de masse, l’IA devient une arme à double tranchant.
Alors que l’intelligence artificielle s’impose dans tous les secteurs, son détournement par des acteurs malveillants inquiète de plus en plus les experts en cybersécurité. OpenAI vient de publier un rapport intitulé “Perturber les utilisations malveillantes de l’IA : une mise à jour”, qui révèle comment les outils d’IA générative, notamment ChatGPT, sont instrumentalisés pour concevoir des attaques, manipuler l’opinion publique et améliorer les opérations de cyberespionnage.
Depuis 2024, OpenAI surveille activement ces abus et aurait déjà neutralisé plus de 40 réseaux exploitant illégalement ses modèles. Cette étude lève le voile sur les nouvelles stratégies de la cybercriminalité à l’ère de l’IA.
Quand les cybercriminels s’appuient sur l’IA
Le rapport révèle que de nombreux groupes cybercriminels intègrent désormais l’IA dans leurs flux de travail pour automatiser des tâches ou contourner les défenses informatiques.
Exemple frappant : un réseau organisé au Cambodge aurait tenté d’utiliser ChatGPT pour améliorer la sécurité et l’efficacité de ses opérations illégales.

D’autres comptes bannis ont cherché à générer des chevaux de Troie, des voleurs d’identifiants, ou encore des codes de chiffrement malveillants. Cette industrialisation de la cybercriminalité s’explique par la capacité de l’IA à produire rapidement du code, du texte ou des scripts difficiles à détecter.
A lire aussi : 8000 mAh, Snapdragon 8 Gen 5, refroidissement liquide… Ce nouveau smartphone a tout
Des groupes étatiques également impliqués
Le rapport d’OpenAI pointe aussi du doigt des groupes soutenus par des États, notamment liés à la République populaire de Chine, qui auraient tenté d’utiliser ChatGPT pour concevoir des systèmes de surveillance de masse.
Certains comptes auraient même demandé de l’aide pour développer des outils capables de croiser des données de transport et de police afin de suivre des minorités ethniques, comme les Ouïghours.
De même, des acteurs russes auraient exploité divers outils d’IA pour créer du contenu de désinformation, notamment des vidéos et messages frauduleux diffusés sur les réseaux sociaux à des fins de propagande.
Une IA consciente de ses limites
Malgré ces détournements, OpenAI précise qu’il n’existe aucune preuve d’attaques “novatrices” créées directement par l’IA.
En d’autres termes, les modèles actuels ne développent pas de nouvelles capacités offensives, mais permettent simplement aux cybercriminels de gagner en rapidité et en efficacité.
L’entreprise souligne toutefois la nécessité d’une vigilance constante : à mesure que les modèles d’IA s’améliorent, leurs potentiels d’abus augmentent aussi. OpenAI promet donc de continuer à renforcer ses outils de détection et de blocage tout en soutenant la cybersécurité à grande échelle.
A lire aussi : Plus petit qu’un adaptateur, ce dock Switch 2 tente de bousculer Nintendo
Conclusion
Ce rapport d’OpenAI rappelle une réalité cruciale : l’IA est un outil puissant, mais neutre — tout dépend de la manière dont elle est utilisée. Si elle peut aider à défendre les réseaux informatiques et anticiper les menaces, elle devient aussi une arme redoutable entre de mauvaises mains.
Dans cette course technologique, la frontière entre innovation et danger se fait plus mince que jamais.

