
OpenAI a doublé le tarif affiché de GPT-5.5 par rapport à son prédécesseur direct. Le prix par million de tokens d’entrée passe de 2,50 $ à 5 $, et le prix par million de tokens de sortie monte de 15 $ à 30 $.
L’entreprise avance un argument pour atténuer l’impact : GPT-5.5 produirait des réponses plus courtes, ce qui limiterait la consommation de tokens de sortie. Les données réelles racontent pourtant une histoire plus nuancée.
A lire aussi
- ChatGPT passe à GPT-5.5 Instant : 81,2 au test AIME contre 65,4 pour l’ancien
- OpenAI muscle ses agents vocaux et casse les limites de contexte
Ce que montrent les données réelles
La plateforme OpenRouter a analysé ses propres journaux d’utilisation datant d’avril 2026 pour mesurer l’impact concret sur les coûts. Le résultat : la facture effective augmente entre 49 et 92 %, selon la longueur des requêtes soumises.

Pour les entrées dépassant 10 000 tokens, les réponses sont effectivement plus courtes de 19 à 34 %, ce qui amortit partiellement la hausse tarifaire. En revanche, pour les entrées comprises entre 2 000 et 10 000 tokens, les réponses s’allongent de 52 %, ce qui aggrave la situation.
Pour les requêtes courtes, inférieures à 2 000 tokens, la longueur des réponses reste quasi identique à celle de GPT-5.4. Dans ce cas, le doublement du tarif se traduit presque intégralement en surcoût réel, proche des 92 % annoncés.
Un secteur en phase de renchérissement
OpenAI n’est pas seul sur cette trajectoire. Anthropic a récemment augmenté les tarifs de son modèle Opus 4.7 de 30 à 40 %, en invoquant également une consommation accrue de tokens comme justification.
Une étude distincte menée par Artificial Analysis avait mesuré une hausse d’environ 20 % pour GPT-5.5, mais cette analyse reposait sur des tests de benchmarks standardisés, et non sur des tâches réelles d’utilisateurs. L’écart avec les chiffres d’OpenRouter illustre la limite des mesures en laboratoire.

Les deux sociétés se préparent par ailleurs à des introductions en Bourse. Dans ce contexte, plusieurs observateurs anticipent que les hausses de prix pourraient se poursuivre à mesure que les entreprises cherchent à améliorer leur rentabilité avant de s’inscrire sur les marchés publics.
Des implications concrètes pour les développeurs
Pour les équipes qui intègrent GPT-5.5 dans des applications à fort volume de requêtes courtes, l’impact budgétaire sera particulièrement sensible. C’est précisément ce segment qui absorbe la quasi-totalité de la hausse tarifaire, sans bénéficier des économies liées à des réponses plus concises.
Les usages impliquant de longues entrées, comme l’analyse de documents volumineux, sont mieux protégés grâce à la compression partielle des réponses. Mais ils ne sont pas non plus épargnés : la hausse reste réelle, même si elle est atténuée.
La tendance générale au renchérissement des modèles de pointe pose une question de fond pour les entreprises qui ont bâti leur architecture technique sur ces API. L’optimisation des prompts et la sélection du bon modèle selon le cas d’usage deviennent des leviers de gestion des coûts de plus en plus stratégiques.
Source : The-decoder

