
Une plainte vient d’être déposée aux États-Unis contre plusieurs hommes accusés d’avoir utilisé les photos d’inconnues sur Instagram pour fabriquer des influenceuses pornographiques générées par intelligence artificielle.
L’une des victimes, identifiée sous les initiales MG dans le dossier judiciaire pour préserver son anonymat, habitait Scottsdale, en Arizona, et avait un compte Instagram ordinaire avec environ 9 000 abonnés.
A lire aussi
- ChatGPT : sa plus grande mise à jour GPT-5 pourrait arriver bien plus tôt que prévu
- Le Honor 400 vous offre de nombreuses fonctions IA pour des photos incroyables
Découverte par hasard via un message privé
MG utilisait Instagram pour partager des moments du quotidien avec ses proches, sans ambition de notoriété particulière. L’été dernier, un abonné lui a envoyé un message pour lui signaler que des vidéos d’une femme ressemblant trait pour trait circulaient sur la plateforme.

En cliquant sur le lien, MG a découvert plusieurs Reels montrant ce qui semblait être son visage incrusté sur un autre corps, avec des tatouages placés aux mêmes endroits que les siens. Les images la montraient dans des tenues suggestives ou dénudées.
Selon ses propres mots, quelqu’un qui ne la connaissait pas bien aurait pu croire qu’il s’agissait véritablement d’elle. Elle a décrit ce moment comme une prise de conscience brutale de sa perte de contrôle sur sa propre image.
Une plateforme commerciale derrière les contenus
Ce qui a aggravé la situation, selon la plainte, c’est que ces images n’étaient pas simplement diffusées à titre personnel. Elles servaient à promouvoir une plateforme commerciale appelée AI ModelForge, qui proposait à ses abonnés d’apprendre à créer leurs propres influenceuses générées par IA.

Les défendeurs auraient organisé des cours et tutoriels en ligne autour d’un logiciel nommé CreatorCore. Ce programme permettrait d’entraîner des modèles d’IA à partir de photos de femmes prélevées sans consentement sur les réseaux sociaux.
Les contenus produits étaient ensuite publiés sur Instagram et TikTok. Le modèle économique reposait ainsi directement sur l’exploitation d’images de personnes réelles à leur insu.
Un vide juridique que la plainte cherche à combler
Cette affaire illustre une problématique croissante autour des contenus intimes non consentis générés par IA, souvent désignés sous le terme de deepfake pornographique. Aux États-Unis, la législation fédérale sur ce sujet reste fragmentaire, même si plusieurs États ont adopté des lois spécifiques ces dernières années.
Le dépôt de cette plainte s’inscrit dans une tendance plus large : des victimes cherchent à obtenir réparation devant les tribunaux civils, faute de cadre pénal uniforme. La question du consentement à l’utilisation d’images publiques à des fins de génération de contenu pornographique reste juridiquement ouverte dans de nombreuses juridictions.
Cette affaire pourrait contribuer à préciser les responsabilités des plateformes qui hébergent ce type de contenu, ainsi que celles des individus qui commercialisent des outils conçus à cet effet.
Source : Ars Technica

