
Lors de son contre-interrogatoire dans le cadre de son procès contre OpenAI, Elon Musk a laissé entendre que son laboratoire xAI avait utilisé les modèles de son concurrent pour entraîner ses propres systèmes d’intelligence artificielle.
L’échange s’est produit en réponse aux questions de l’avocat d’OpenAI, William Savitt, qui interrogeait Musk sur la pratique dite de distillation.
Une admission au tribunal
Interrogé sur la distillation, Musk a défini lui-même le concept : utiliser un modèle d’IA pour en entraîner un autre. Lorsque l’avocat lui a demandé si xAI avait procédé ainsi avec les modèles d’OpenAI, Musk a d’abord répondu que « toutes les entreprises IA » le font. Savitt a alors obtenu un mot plus précis : « Partiellement. »

Musk a également indiqué, sans contester directement la question, que la technologie d’OpenAI aurait pu être utilisée pour valider les propres modèles de xAI. Selon lui, il s’agit d’une pratique courante dans le secteur.
La distillation, un sujet sensible dans le secteur
La distillation consiste à entraîner un modèle plus petit à reproduire le comportement d’un modèle plus grand, afin de réduire les coûts de fonctionnement tout en conservant une partie des performances. Cette technique est au cœur de plusieurs tensions récentes entre laboratoires d’IA.
OpenAI a cherché à protéger ses modèles contre cette pratique, notamment depuis que le laboratoire chinois DeepSeek a été soupçonné d’y avoir recours. Dans un mémo adressé à une commission de la Chambre des représentants en février 2026, OpenAI indiquait avoir pris des mesures pour rendre ses modèles plus résistants à la distillation.
L’administration Trump s’est positionnée dans le même sens. En avril 2026, le directeur du bureau de la politique scientifique de la Maison-Blanche, Michael Kratsios, a annoncé que le gouvernement américain transmettrait aux entreprises d’IA des informations sur les tentatives étrangères de distillation.
Des tensions croissantes entre laboratoires concurrents
Au-delà du cas Musk, les relations entre laboratoires américains d’IA se tendent sur la question de l’accès aux modèles concurrents. En août 2025, Anthropic avait coupé l’accès d’OpenAI à ses modèles de codage Claude après avoir invoqué une violation de ses conditions d’utilisation. Plus récemment, Anthropic a également bloqué l’accès de xAI à ces mêmes modèles.

Ces restrictions illustrent une évolution du secteur, où les grands laboratoires, longtemps habitués à s’évaluer mutuellement, commencent à tracer des frontières plus strictes autour de leur propriété intellectuelle.
Un procès aux multiples volets
L’interrogatoire de Musk s’inscrit dans un contentieux plus large qui l’oppose à OpenAI depuis plusieurs années. L’avocat Savitt avait également présenté, la veille, des échanges datant de 2017 pour soutenir que Musk aurait affaibli OpenAI en retenant des financements et en recrutant des chercheurs clés.
Ni OpenAI ni xAI n’ont répondu aux demandes de commentaire de Wired au moment de la publication. L’issue du procès pourrait avoir des répercussions importantes sur la façon dont la distillation entre concurrents sera encadrée à l’avenir.
Source : Wired

