
OpenAI a présenté le 22 avril un outil appelé ChatGPT for Clinicians, conçu spécifiquement pour les professionnels de santé. Ce n’est pas un nouveau modèle de langage, mais une version adaptée de ChatGPT, dotée d’un ensemble d’outils pensés pour les besoins médicaux quotidiens.
L’initiative répond à un usage déjà bien établi : selon Karan Singhal, responsable santé chez OpenAI, des millions de cliniciens consultaient déjà ChatGPT chaque semaine. La société a décidé de structurer cet usage plutôt que de le laisser s’improviser.
Un outil centré sur les tâches médicales courantes
ChatGPT for Clinicians cible trois domaines dans lesquels les soignants recouraient déjà à l’IA : les consultations de cas cliniques, la rédaction de documents administratifs et la veille scientifique. L’objectif déclaré est de réduire la charge pesant sur des professionnels souvent surchargés.
L’outil est accessible gratuitement aux médecins, infirmiers praticiens, assistants médicaux et pharmaciens, après vérification de leur statut professionnel auprès d’OpenAI. Il se distingue des produits grand public comme ChatGPT Health ou Copilot Health de Microsoft, qui s’adressent directement aux patients.
Pour construire cet outil, OpenAI a collaboré avec des milliers de cliniciens, dont des experts issus d’établissements comme le Memorial Sloan Kettering. Les réponses générées s’appuient sur des études à comité de lecture, des recommandations de santé publique et des guides de pratique clinique.
Des résultats encourageants sur des benchmarks spécialisés
Sur le benchmark HealthBench Professional d’OpenAI, ChatGPT for Clinicians a obtenu un taux de 99,6 % en termes de précision et de sécurité. Cela signifie que, dans la grande majorité des cas testés, les réponses produites ont été jugées acceptables par des médecins.

Sur le plan de la confidentialité, l’outil peut fonctionner en conformité avec le régime américain HIPAA. Les établissements de santé peuvent signer un accord de partenariat avec OpenAI pour protéger les données personnelles des patients. Les informations partagées ne sont pas utilisées pour entraîner les modèles.
Les limites que l’IA ne peut pas combler
Malgré ces performances techniques, les limites de l’IA en contexte médical restent réelles. Le jugement clinique, la sensibilité humaine et l’expérience accumulée au chevet des patients ne peuvent pas être reproduits par un modèle de langage.
Un autre risque concerne les biais présents dans la littérature médicale. Des décennies de recherche ont documenté des inégalités de traitement selon l’origine ou le genre des patients. Un modèle entraîné sur cette littérature peut reproduire ces mêmes biais sans en être conscient.
OpenAI positionne son outil comme un complément à l’expertise humaine, non comme un substitut. L’idée est de donner aux soignants un accès rapide à une base de connaissances étendue, pour qu’ils consacrent davantage de temps à la relation avec leurs patients.
Un contexte d’adoption croissante de l’IA en médecine
L’arrivée de ChatGPT for Clinicians s’inscrit dans une tendance plus large. Les outils de transcription automatique, les logiciels de gestion des dossiers et les systèmes d’aide à la décision clinique se multiplient dans les établissements de santé.
Une étude récente a montré qu’un modèle d’IA médicale pouvait égaler, voire dépasser, les performances des équipes de tri aux urgences sur certaines décisions diagnostiques. Ce contexte explique pourquoi des acteurs comme OpenAI accélèrent leur présence dans ce secteur, tout en cherchant à encadrer les usages professionnels.
Source : CNET

