
La Commission européenne dispose de l’AI Act et de l’AI Office, mais se heurte à un obstacle concret : obtenir un accès direct aux modèles d’IA de pointe dépend du bon vouloir des entreprises concernées.
Deux laboratoires américains illustrent ce paradoxe de façon contrastée. OpenAI a fait un pas vers Bruxelles, tandis qu’Anthropic reste en retrait, malgré plusieurs mois de discussions.
OpenAI propose un accès volontaire à GPT-5.5 Cyber
OpenAI a proposé à la Commission européenne un accès à son nouveau modèle GPT-5.5 Cyber. Le porte-parole de la Commission, Thomas Regnier, a confirmé cette offre lors d’un point presse, soulignant que l’institution accueille favorablement cette démarche de transparence.

Cet accès permettrait aux régulateurs de surveiller le déploiement du modèle et de traiter plus directement les questions de sécurité. Les discussions sont déjà engagées. Parmi les entités susceptibles de bénéficier de cet accès figurent l’agence européenne de cybersécurité ENISA, l’AI Office et la Direction générale DG Connect.
Thomas Regnier a également profité de l’occasion pour défendre le cadre législatif européen existant, citant l’AI Act et le Cyber Resilience Act, tout en appelant à accélérer l’adoption du Cybersecurity Act en cours de discussion.
Anthropic : quatre à cinq réunions, sans résultat concret
La situation est différente avec Anthropic. La Commission a tenu entre quatre et cinq réunions avec l’entreprise autour de son modèle Mythos, celui qui a alimenté le débat actuel sur la cybersécurité des modèles d’IA.
Les échanges sont qualifiés de constructifs par Bruxelles, mais aucun accès n’a été accordé à ce stade. Interrogé directement sur la question de savoir si la Commission avait formellement demandé l’accès à Mythos, Thomas Regnier a esquivé la réponse. Il a simplement indiqué que le résultat obtenu avec OpenAI constituerait un résultat idéal pour les discussions avec Anthropic également.

Seul l’Institut britannique de sécurité de l’IA a pu tester Mythos directement. Anthropic a par ailleurs limité l’accès à ce modèle à un cercle restreint de partenaires technologiques et d’entreprises spécialisées en cybersécurité, dans le cadre d’un programme baptisé « Project Glasswing ».
Un déséquilibre structurel entre régulateurs et acteurs de l’IA
Cette situation met en évidence un déséquilibre croissant entre les autorités européennes et les grandes entreprises d’IA. L’UE dispose d’outils législatifs, mais leur application pratique reste tributaire de la coopération volontaire des laboratoires concernés.
La question des modalités concrètes d’accès soulève également des interrogations sur la sécurité. Lors du point presse, un journaliste a demandé si la Commission prévoyait des mesures de protection en cas d’accès accordé à ses agences, l’accès à un modèle de pointe pouvant lui-même représenter un risque. Regnier n’a pas apporté de réponse précise, indiquant seulement que les précautions nécessaires seraient prises.
L’absence de tout acteur européen dans le développement de modèles d’IA de premier rang aggrave encore cette asymétrie. Bruxelles se retrouve dans la position d’un régulateur qui doit frapper à la porte de laboratoires étrangers pour exercer sa mission.
Source : The-decoder

