
Des chercheurs de Carnegie Mellon, du MIT, d’Oxford et de l’UCLA ont mené une série d’expériences pour mesurer l’impact de l’assistance par IA sur la capacité des individus à résoudre des problèmes par eux-mêmes.
Les résultats suggèrent qu’un accès même court à un chatbot capable de traiter une tâche de façon autonome modifie ensuite le comportement des utilisateurs, notamment leur volonté de continuer à chercher sans aide.
Une expérience contrôlée sur des tâches concrètes
Les participants ont été recrutés via une plateforme en ligne rémunérée et soumis à des exercices variés : fractions simples, compréhension de texte et d’autres tâches cognitives accessibles. Trois expériences distinctes ont été conduites, chacune impliquant plusieurs centaines de personnes.
Une partie des participants disposait d’un assistant IA capable de résoudre les problèmes à leur place. Lorsque cet assistant leur était retiré sans préavis, ces personnes abandonnaient plus souvent la tâche ou produisaient des réponses incorrectes, comparativement à ceux qui n’avaient jamais eu accès à l’outil.

Michiel Bakker, maître de conférences au MIT et co-auteur de l’étude, souligne que la persévérance face à la difficulté est précisément ce qui permet d’acquérir de nouvelles compétences et de progresser sur le long terme. C’est ce mécanisme que les chercheurs estiment fragilisé.
Productivité immédiate contre apprentissage durable
L’étude ne conclut pas que l’IA est néfaste en soi. Bakker indique clairement que l’outil améliore les performances dans l’instant, ce qui peut représenter une valeur réelle dans de nombreux contextes professionnels ou éducatifs.
Le problème soulevé est plus structurel : les systèmes actuels sont conçus pour fournir des réponses directes, sans nécessairement encourager l’utilisateur à comprendre le raisonnement sous-jacent. Selon Bakker, des outils qui guident, questionnent ou accompagnent plutôt que de substituer pourraient produire des effets à long terme très différents.

Cette distinction entre un outil qui résout et un outil qui enseigne rappelle celle d’un bon professeur, capable de ne pas donner la réponse immédiatement afin de favoriser la compréhension. Adapter les modèles dans ce sens soulève toutefois des questions sur la façon dont cette orientation pourrait être mise en oeuvre sans contraindre l’utilisateur.
Des implications pour la conception des outils
Les chercheurs estiment que la question dépasse le cadre éducatif. Dans les environnements de travail où les agents IA prennent en charge des tâches complexes de manière autonome, les risques de dépendance cognitive pourraient s’accentuer.
OpenAI a déjà reconnu certains effets indésirables liés à la servilité excessive de ses modèles, c’est-à-dire leur tendance à approuver les utilisateurs plutôt qu’à les contredire, et a cherché à corriger ce comportement dans les versions récentes de GPT.
Bakker appelle à intégrer la question du développement cognitif humain dans la façon dont les modèles sont alignés avec les valeurs humaines. Pour lui, il s’agit autant d’une question de conception que d’une réflexion plus large sur ce que l’on attend réellement de ces outils.
L’étude ne plaide pas pour une restriction de l’usage de l’IA dans l’éducation ou au travail. Elle invite plutôt les concepteurs et les utilisateurs à distinguer les situations où déléguer à une machine est pertinent de celles où la friction cognitive reste nécessaire à l’apprentissage.
Source : Wired

