
Le Threat Intelligence Group (GTIG) de Google vient de publier une découverte inédite : un acteur malveillant a utilisé un modèle d’IA pour concevoir un exploit zero-day, c’est-à-dire une faille inconnue de la cible au moment de l’attaque.
C’est la première fois que Google documente concrètement l’usage offensif de l’IA dans la création d’une telle vulnérabilité. L’enjeu dépasse le cadre technique : cela confirme que l’IA peut désormais servir d’outil à part entière dans une chaîne d’attaque informatique.
Une tentative d’exploitation massive déjouée
Selon le rapport du GTIG, l’acteur malveillant avait prévu d’utiliser cet exploit dans le cadre d’un événement d’exploitation à grande échelle. La détection précoce par Google a probablement empêché cette attaque de se produire.

L’entreprise ciblée n’a pas été nommée dans le rapport, mais Google affirme l’avoir prévenue. La faille a depuis été corrigée. Les auteurs de l’attaque n’ont pas non plus été identifiés publiquement, mais le rapport signale que des groupes liés à la Chine et à la Corée du Nord ont manifesté un intérêt notable pour l’exploitation de vulnérabilités par l’IA.
Google précise également que ses propres modèles Gemini ne semblent pas avoir été utilisés dans cette attaque, tout en maintenant une forte conviction qu’un modèle d’IA tiers a bien joué un rôle central, à la fois dans la découverte de la faille et dans la construction de l’exploit.
L’IA comme outil des deux camps
John Hultquist, analyste en chef au sein du GTIG, a décrit cette découverte comme un premier signe tangible d’une tendance qui devrait s’amplifier. Il s’agit selon lui d’un avant-goût de ce que le secteur de la cybersécurité va devoir affronter dans les années à venir.
Le rapport du GTIG souligne que les acteurs malveillants intègrent déjà l’IA à différentes étapes d’une attaque : collecte de renseignements, identification de cibles, développement d’exploits. Mais Google insiste sur le fait que l’IA constitue aussi un levier défensif puissant pour ceux qui protègent les systèmes.

D’autres acteurs du secteur avancent dans cette direction. En avril dernier, Anthropic a annoncé le projet Glasswing, une initiative visant à utiliser son modèle Claude Mythos Preview pour détecter et corriger des vulnérabilités à fort impact avant qu’elles ne soient exploitées.
Un tournant pour la cybersécurité
La découverte du GTIG marque un point d’inflexion : jusqu’ici, l’usage malveillant de l’IA en cybersécurité restait largement théorique ou difficile à attribuer avec certitude. Cette fois, Google dispose de ce qu’il qualifie de première preuve tangible.
La question n’est plus de savoir si les modèles d’IA seront utilisés pour concevoir des attaques, mais à quelle fréquence et avec quelle sophistication. Les entreprises de sécurité, comme Google ou Anthropic, misent sur cette même technologie pour garder une longueur d’avance.
Source : Engadget

