
L’intelligence artificielle avance vite et entraîne dans son sillage un vocabulaire spécialisé qui déroute souvent, même les professionnels du secteur. Quelques minutes de lecture sur le sujet suffisent pour croiser une dizaine d’acronymes difficiles à démêler.
Ce lexique rassemble les définitions essentielles pour naviguer dans l’écosystème IA sans se perdre. Il couvre les concepts fondamentaux comme les notions plus récentes, issues des dernières avancées du domaine.
A lire aussi
- OpenAI dévoile de nouveaux modèles pour ChatGPT, plus puissant et moins chers
- Le Honor 400 peut transformer une image en vidéo en quelques clics
Les grands concepts de base
L’AGI (intelligence artificielle générale) désigne une IA capable de surpasser un humain moyen dans un large éventail de tâches. La définition varie selon les acteurs : OpenAI la décrit comme un système autonome surpassant l’humain dans la plupart des travaux à valeur économique, tandis que Google DeepMind parle d’une IA au moins aussi compétente que l’humain dans la majorité des tâches cognitives.

Le deep learning, ou apprentissage profond, est une branche du machine learning qui s’appuie sur des réseaux de neurones artificiels organisés en plusieurs couches. Cette architecture permet d’identifier automatiquement des caractéristiques dans les données, sans qu’un ingénieur ait besoin de les définir manuellement. En contrepartie, ces systèmes nécessitent des volumes de données considérables et des coûts de développement plus élevés.
La diffusion est la technologie qui alimente de nombreux modèles génératifs d’images, de musique ou de texte. Le principe consiste à dégrader progressivement des données en y ajoutant du bruit, puis à entraîner le modèle à inverser ce processus pour reconstruire des contenus cohérents.
Agents IA et automatisation
Un agent IA est un système capable d’accomplir une série de tâches de manière autonome, au-delà de ce que fait un simple chatbot. Réserver un billet, gérer des notes de frais ou maintenir du code sont des exemples concrets de ce qu’un agent peut prendre en charge, en s’appuyant sur plusieurs modèles IA combinés.
Les agents de codage représentent une déclinaison spécialisée de ce concept, appliquée au développement logiciel. Plutôt que de suggérer du code à un développeur, ils écrivent, testent et corrigent des programmes de manière autonome, sur des bases de code entières. Un contrôle humain reste toutefois nécessaire pour valider les résultats.

Les endpoints d’API sont les points d’entrée techniques que des programmes externes peuvent utiliser pour interagir avec un logiciel. À mesure que les agents IA progressent, ils deviennent capables d’identifier et d’exploiter ces interfaces seuls, ouvrant des possibilités d’automatisation étendues.
Entraînement et optimisation des modèles
Le fine-tuning consiste à reprendre un modèle déjà entraîné et à lui faire absorber de nouvelles données spécialisées, pour l’adapter à un usage précis. De nombreuses startups IA utilisent cette méthode pour construire des produits commerciaux à partir de grands modèles existants.
La distillation transfère les connaissances d’un grand modèle vers un modèle plus petit, en utilisant les sorties du premier comme données d’entraînement pour le second. Cette technique permet d’obtenir des modèles plus légers et plus rapides, avec une perte de performance limitée.
Le raisonnement en chaîne (chain of thought) est une approche qui consiste à décomposer un problème complexe en étapes intermédiaires avant de produire une réponse. Cette méthode prend plus de temps, mais améliore sensiblement la fiabilité des réponses dans les domaines logiques ou techniques.
Puissance de calcul et infrastructure
Le terme « compute » désigne de manière générale la puissance de calcul nécessaire à l’entraînement et au déploiement des modèles IA. Il renvoie concrètement aux composants matériels qui fournissent cette puissance : GPU, CPU, TPU et autres infrastructures spécialisées.
Ces ressources constituent un enjeu stratégique majeur dans l’industrie, car les modèles les plus avancés en consomment des quantités considérables. La disponibilité du compute conditionne directement la capacité des laboratoires à développer de nouveaux modèles de grande taille.
Source : TechCrunch

