Depuis l'émergence de ChatGPT, l'utilisation de l'intelligence artificielle par les cybercriminels a explosé. Cependant, avec l'évolution de ces technologies, les risques augmentent, comme le souligne la trouvaille alarmante du Google Threat Intelligence Group, spécialiste en cybersécurité.
Pour la première fois, ce groupe a révélé qu'un hacker a mis en œuvre l'IA pour développer un exploit zero-day. Ce terme désigne une vulnérabilité non encore notifiée et donc pas encore corrigée. L'exploit correspond à la méthode mise en place pour tirer profit de cette faille.
Dans cette affaire, la vulnérabilité aurait facilité le contournement de la double authentification sur un « outil d'administration système open source très populaire », selon les précisions des chercheurs du GTIG. Ce système de connexion vise à renforcer la sécurité des comptes en exigeant une vérification additionnelle, comme un code envoyé par SMS ou par email, en complément du mot de passe.
Conçu avec l'IA, mais pas avec Gemini
Les recherches indiquent que le hacker a probablement utilisé un modèle d'IA pour détecter et exploiter cette vulnérabilité, basé notamment sur le comportement du script, qui avait un format Python typique des logements d’apprentissage des modèles de langage. Toutefois, les experts ne croient pas que cet exploit ait été réalisé grâce à Gemini, l'IA de Google, au vu de la structure et du contenu de l'exploit.
Si l'identité du cybercriminel demeure inconnue, le GTIG précise que des groupes pirate associés à la Chine ou à la Corée du Nord manifestent un intérêt croissant pour l'utilisation de l'IA dans la détection de failles.
« Ces acteurs ont mis en œuvre des stratégies avancées pour découvrir et exploiter des vulnérabilitésà l’aide de l'IA, notamment des tentatives de jailbreak pour optimiser leurs processus », ont-ils souligné.
Les révélations de Google arrivent dans un contexte où les inquiétudes sur les menaces potentielles que les modèles d'IA représentent pour la cybersécurité ne cessent de croître, particulièrement depuis que la start-up Anthropic a dévoilé Mythos, un modèle capable d'identifier des failles dans des logiciels existants. Bien que cette technologie soit impressionnante, son accès est pour l'instant limité à quelques entreprises et gouvernements.







