Le PDG d’OpenAI, Sam Altman, a averti que l’entreprise pourrait retirer ses services du marché européen en réponse à la réglementation sur l’IA élaborée par l’UE.
S’adressant aux journalistes après une conférence à Londres, M. Altman a déclaré qu’il avait « de nombreuses inquiétudes » au sujet de la loi européenne sur l’IA, qui est actuellement en cours de finalisation. Les termes de la loi ont été élargis ces derniers mois pour inclure de nouvelles obligations pour les fabricants de « modèles de base » – des systèmes d’IA à grande échelle qui alimentent des services tels que ChatGPT et DALL-E d’OpenAI.
Les détails sont vraiment importants, a déclaré M. Altman, selon un rapport du Financial Times. Nous essaierons de nous conformer, mais si nous ne pouvons pas le faire, nous cesserons nos activités.
Dans des commentaires rapportés par le Time, M. Altman a déclaré que le problème était que les systèmes tels que ChatGPT seraient désignés comme étant « à haut risque » en vertu de la législation de l’UE. Cela signifie qu’OpenAI devrait satisfaire à un certain nombre d’exigences en matière de sécurité et de transparence.
Soit nous serons en mesure de répondre à ces exigences, soit nous ne le pourrons pas, a déclaré M. Altman. Outre les défis techniques, les divulgations requises par la loi européenne sur l’IA présentent également des menaces commerciales potentielles pour OpenAI. L’une des dispositions du projet actuel exige que les créateurs de modèles de fondation divulguent des détails sur la conception de leur système (y compris « la puissance de calcul requise, le temps d’entraînement et d’autres informations pertinentes liées à la taille et à la puissance du modèle ») et fournissent des résumés des données protégées par le droit d’auteur utilisées pour l’entraînement.
OpenAI avait l’habitude de partager ce type d’informations, mais a cessé de le faire à mesure que ses outils prenaient de l’importance sur le plan commercial. En mars, le cofondateur d’Open AI, Ilya Sutskever, a déclaré à The Verge que l’entreprise avait eu tort de divulguer autant d’informations par le passé, et qu’il était nécessaire de garder secrètes des informations telles que les méthodes d’entraînement et les sources de données pour éviter que son travail ne soit copié par des rivaux.
Sans parler de la menace commerciale éventuelle, obliger OpenAI à identifier son utilisation de données protégées par le droit d’auteur exposerait l’entreprise à des poursuites potentielles. Les systèmes d’IA générative tels que ChatGPT et DALL-E sont entraînés à l’aide de grandes quantités de données extraites du web, dont la plupart sont protégées par des droits d’auteur. Lorsque les entreprises divulguent ces sources de données, elles s’exposent à des poursuites judiciaires. Stability AI, par exemple, un concurrent d’OpenAI, est actuellement poursuivi par le fabricant d’images Getty Images pour avoir utilisé ses données protégées par le droit d’auteur afin d’entraîner son générateur d’images IA.