Nick Turley, responsable de ChatGPT chez OpenAI, rappelle que malgré les progrès de GPT-5, les utilisateurs doivent continuer à vérifier les informations fournies par l’IA. Bien que le nouveau modèle réduise les erreurs et les « hallucinations », il n’est pas encore assez fiable pour être considéré comme une source principale d’information.

Résumé de l’article :
- GPT-5 marque une amélioration notable en termes de précision et de réduction des erreurs, mais OpenAI insiste sur la nécessité de croiser les informations avec des sources fiables.
- Nick Turley souligne que l’objectif reste d’atteindre un niveau de fiabilité supérieur à celui d’un expert humain dans tous les domaines avant de recommander ChatGPT comme référence unique.
- L’entreprise travaille à connecter les modèles d’IA à des sources vérifiées pour améliorer la qualité des réponses, tout en reconnaissant que la technologie reste en développement.
GPT-5 : des progrès, mais pas encore une fiabilité absolue
Lors d’un entretien accordé au podcast Decoder de The Verge, Nick Turley, responsable de ChatGPT chez OpenAI, a réaffirmé que le nouveau modèle GPT-5, bien qu’il représente une avancée significative, ne doit pas être utilisé comme seule source d’information.
« Jusqu’à ce que nous soyons plus fiables qu’un expert humain dans tous les domaines, et pas seulement dans certains, nous continuerons à conseiller de vérifier les réponses », a-t-il déclaré.
Cette position reflète une approche prudente, déjà visible dans les mentions d’avertissement affichées par défaut dans l’interface de ChatGPT : « ChatGPT peut commettre des erreurs. Vérifiez les informations importantes. »
Une réduction des erreurs, mais des limites persistantes
OpenAI reconnaît que GPT-5 génère moins d’erreurs que ses prédécesseurs, notamment grâce à des mécanismes de raisonnement améliorés et à des tests approfondis. Selon Turley, le modèle a été évalué pendant plus de 5 000 heures pour identifier et limiter les risques de désinformation. Pourtant, le phénomène d’« hallucination » — la tendance des IA à inventer des informations — n’a pas disparu.

« Nous sommes confiants dans notre capacité à résoudre ce problème à terme, mais ce ne sera pas le cas dans les prochains mois », a-t-il précisé. En pratique, cela signifie que les utilisateurs doivent toujours recouper les réponses de ChatGPT avec d’autres sources, qu’il s’agisse de moteurs de recherche traditionnels, de bases de données spécialisées ou de conseils d’experts.
L’importance de la connexion à des sources fiables
Pour Turley, la solution passe par l’intégration de données vérifiées dans les processus de réponse de l’IA. « Le bon produit, c’est un modèle de langage connecté à la vérité », explique-t-il, en référence à l’intégration récente de fonctionnalités de recherche dans ChatGPT.
Cette approche vise à ancrer les réponses dans des informations actualisées et sourcées, réduisant ainsi le risque d’inexactitudes. Cependant, même lorsque ChatGPT fournit des liens vers des sources, il est recommandé de vérifier que le résumé proposé correspond bien au contenu original, car l’IA peut encore en déformer le sens.
Un outil complémentaire, pas une référence absolue
Turley encourage les utilisateurs à considérer ChatGPT comme un « second avis » plutôt que comme une autorité incontestable. « Les gens vont continuer à utiliser ChatGPT pour obtenir une opinion supplémentaire, mais pas nécessairement comme leur source principale de faits », souligne-t-il.
Cette distinction est cruciale, notamment dans des domaines sensibles comme la santé, la finance ou le droit, où une erreur peut avoir des conséquences graves. L’IA reste avant tout un outil d’assistance, dont les réponses doivent être interprétées avec discernement.

