ChatGPT est arrivé sur le marché en fin d’année 2022. En janvier 2023, l’outil d’intelligence artificielle comptait déjà 100 millions d’utilisateurs et le nombre n’a fait qu’augmenter suite aux annonces de Microsoft. Il n’est donc pas étonnant, au vu de la puissance de cette technologie, que l’outil ai besoin de plus de cartes graphiques pour plus de performances. En cause, certaines entreprises qui profiteraient de la popularité de ChatGPT.
Nvidia pourrait ainsi réaliser un chiffre d’affaires de 300 millions de dollars grâce à ChatGPT. En effet, selon une analyse de TrendForce, ChatGPT aurait besoin de 30 000 cartes graphiques Nvidia A100 pour fonctionner à un bon régime.
Nvidia pourrait toutefois accorder une remise commerciale à OpenAI si la commande s’avère en effet aussi importante.
ChatGPT n’utilisera pas de cartes RTX
ChatGPT utilise un type de GPU différent des cartes graphiques Nvidia GeForce RTX série 40 notamment. Une Nvidia A100 coûte entre 10 000 et 15 000 dollars et elle est conçue entre autres pour répondre à des demandes que peut avoir ChatGPT. Les gamers ne seraient donc pas pénalisés par cette demande, n’utilisant absolument pas cette gamme de GPU.
La pénurie mondiale de puces d’il y a quelques mois était créée par une pénurie mondiale de puces et non simplement de cartes graphiques. Ainsi, les constructeurs automobile de les fabricants de cartes graphiques, concurrents sur les mêmes composants, ont fini par faire monter les enchères. Si les voitures n’ont pas de RTX 3090 embarquée, à l’exception des Tesla, les puces peuvent s’adapter pour divers utilisations.
En revanche, si Nvidia donnait une priorité à ChatGPT pour la production de cartes graphiques, cela pourrait potentiellement affecter la disponibilité d’autres cartes, mais pour une durée très courte.