Source: The Conversation – in French – By Bruno Deffains, Professeur de Sciences Économique, Membre honoraire de l’Institut Universitaire de France, Université Paris-Panthéon-Assas
Et si on ne posait pas la bonne question quand on s’inquiète de l’impact des intelligences artificielles sur l’emploi ? Au-delà des emplois potentiellement détruits ou créés, que restera-t-il, et que doit-il rester, à l’humain ? Loin de remplacer tous les cols blancs, les IA vont modifier le rôle dévolu à chacun, ce qui devrait mobiliser l’enseignement pour apprendre aux plus jeunes à devenir des opérateurs d’abondance.
Le 10 mars 2026, le PDG de Nvidia Jensen Huang publiait un essai déclarant que l’IA crée plus d’emplois qu’elle n’en détruit. Quelques jours plus tôt, les économistes d’Anthropic publiaient des données empiriques racontant une histoire bien plus nuancée. Entre ces deux lectures, une question demeure entière : dans un monde où la machine produit instantanément, abondamment, et souvent convenablement, qu’est-ce que l’humain doit impérativement conserver comme capacité propre ?
Il y a quelque chose de troublant dans le débat actuel sur l’intelligence artificielle et le travail. Ce n’est pas qu’il soit faux, c’est qu’il pose systématiquement la mauvaise question. On se demande si l’IA va détruire des emplois, si les cols blancs sont les nouvelles victimes du progrès technique, s’ils vont connaître à leur tour « une sorte de désindustrialisation ». Ce débat est légitime.
Mais il écarte une interrogation autrement plus profonde qui consiste à s’interroger sur ce que doit conserver l’humain comme capacité propre dans un monde où la machine produit instantanément, abondamment, et souvent convenablement ? Pour répondre à cette question, le concept d’opérateur de l’abondance apporte un éclairage à maints égards pertinent.
À lire aussi :
L’IA générative ne détruira pas votre emploi mais elle va changer profondément votre métier
L’abondance n’est pas la valeur
Jensen Huang utilise une formule a priori séduisante selon laquelle l’IA génère des réponses en temps réel, contextualisées et d’une plausibilité souvent confondante. En quelques secondes, elle produit un projet de conclusions judiciaires, une synthèse bibliographique, une analyse de risques, un plan de cours. C’est techniquement exact. Mais cette exactitude masque une ambiguïté fondamentale : produire ne signifie pas valoir.
La vraie question n’est pas « Est-ce que ce contenu est bon ? », mais pour qui est-il bon ? Dans quel contexte ? Avec quelles conséquences si l’on se trompe ? Et à cette question, le modèle ne répond pas, parce qu’elle exige une forme de connaissance que le philosophe Michael Polanyi qualifiait de tacite dans ses travaux sur les fondements du savoir scientifique « We can know more than we can tell », y écrit-il), un savoir qui vit dans la mémoire des situations, dans l’expérience accumulée des erreurs, dans la lecture des rapports de force d’une organisation, dans la sensibilité aux attentes implicites d’une juridiction ou d’un comité. Ce savoir-là ne se met pas dans un prompt, parce qu’il n’est pas de l’ordre de ce qui peut être intégralement formulé, et qu’il résiste, par nature, à toute tentative de formalisation complète.
Miroir amplificateur
C’est ici que les données empiriques publiées en janvier 2026 par les économistes d’Anthropic fournissent un éclairage décisif. Parmi les millions d’interactions analysées avec Claude, 52 % relèvent de modes augmentatifs. Autrement dit, l’humain itère, ajuste, réoriente. Il ne délègue pas, il collabore. Et surtout, les auteurs constatent une corrélation quasi parfaite entre la sophistication de la question posée et la qualité de la réponse obtenue.
Le modèle est un miroir amplificateur, il ne produit de valeur cognitive que dans la mesure où celui qui l’interroge est capable de formuler ce qu’il cherche. L’abondance que génère l’IA n’est donc pas une ressource libre d’accès. Elle est conditionnée par la compétence de celui qui la sollicite. Ce n’est pas une loi technique, c’est une loi cognitive.
L’opérateur de l’abondance
Il conviendrait d’appeler « opérateur de l’abondance » la figure professionnelle que l’économie de l’IA requiert, et que nos systèmes de formation ne produisent pas encore. Ce n’est ni le programmeur de modèles ni l’utilisateur passif. C’est quelqu’un qui sait formuler un problème en termes exploitables par un modèle, évaluer la pertinence et la fiabilité d’un output, injecter le contexte que la machine ne peut pas avoir et assumer la responsabilité d’une décision fondée en partie sur des suggestions qu’il n’a pas lui-même générées.
Cette compétence n’est pas technique au sens étroit. Elle est profondément intellectuelle. Elle suppose d’avoir été formée à la pensée critique, à l’argumentation, à l’identification des biais. Elle suppose d’avoir fait l’expérience de se tromper et d’avoir appris à détecter pourquoi. En un mot, elle suppose d’avoir été exposé à la difficulté des tâches que l’on délègue désormais, avant de les déléguer.
Le risque silencieux de la délégation aveugle
C’est là que le rapport publié le 5 mars 2026 par les économistes d’Anthropic Maxim Massenkoff et Peter McCrory introduit une distinction cruciale, à savoir la différence entre l’exposition théorique à l’IA, ce que le modèle pourrait techniquement faire dans un métier, et l’exposition observée, ce qu’il fait effectivement. La première dépasse 90 % dans les professions juridiques, financières et managériales. La seconde est bien inférieure, pour des raisons légales, organisationnelles, institutionnelles. Mais l’écart se réduit.
Et le signe avant-coureur le plus inquiétant n’est pas le chômage. C’est le ralentissement du recrutement des jeunes diplômés (22-25 ans) dans les professions les plus exposées. Les entreprises n’embauchent plus autant de juniors pour des tâches que l’IA fait désormais plus vite et moins cher. Ce n’est pas que l’IA supprime des postes, elle contracte plutôt les flux d’entrée dans les professions qualifiées, privant une génération de ce que l’économiste Kenneth Arrow appelait le learning by doing, ce processus lent et irremplaçable par lequel on devient capable de superviser ce qu’on n’a pas encore tout à fait compris.
La déqualification cognitive, c’est précisément cela. Non pas perdre son emploi, mais perdre progressivement la capacité de superviser ce qu’on délègue. On délègue la rédaction sans avoir appris à rédiger. On valide des outputs sans avoir développé la compétence critique qui permettrait de détecter ce que l’IA fait mal, ses angles morts, sa tendance à produire du plausible, là où il faudrait du vrai. Cette « délégation aveugle » n’est pas une fatalité technologique. Elle est le produit d’une augmentation passive, une délégation sans réinvestissement dans des compétences de niveau supérieur.
Quand la boucle se ferme sans nous
Ce raisonnement prend encore plus de force avec l’IA agentique, cette nouvelle génération de systèmes qui n’attendent pas une validation humaine à chaque étape, mais agissent. Ils naviguent, rédigent, exécutent du code, orchestrent d’autres agents, prennent des décisions intermédiaires dans des chaînes d’action qui s’étalent sur des heures sans intervention humaine. Jensen Huang l’a annoncé au GTC 2026 en déclarant que dans dix ans, chaque employé humain travaillera aux côtés de cent agents IA. Le chiffre est peut-être exagéré mais la direction ne l’est pas.
Avec l’IA générative, la boucle revenait toujours à l’humain. Il évaluait un output et décidait. Avec l’IA agentique, cette boucle peut se fermer en interne. L’opérateur de l’abondance doit alors devenir ce qu’on pourrait appeler un « architecte d’objectifs » ; non plus « est-ce que ce texte est bon ? » mais « cet agent a-t-il bien compris ce que je voulais, et ses cinquante actions intermédiaires étaient-elles toutes légitimes ? »
Or, les données Anthropic montrent que le taux de succès des modèles décroît significativement à mesure que la complexité de la tâche augmente, précisément là où les agents déploient le plus d’autonomie. La surveillance humaine est donc la plus nécessaire là où elle est la plus difficile à exercer. Et elle est impossible pour qui n’a jamais eu à faire ce qu’il supervise.
Urgence d’une politique de formation
La thèse de Jensen Huang n’est pas fausse, elle est incomplète. Oui, le déploiement de l’IA génère de l’emploi dans les secteurs de l’infrastructure physique. Mais, comme les réseaux électriques du début du XXe siècle, une infrastructure ne s’irrigue pas équitablement par la seule vertu du marché. Et surtout, elle ne dit rien des effets sur les trajectoires d’apprentissage des professions intellectuelles.
Ce que les données suggèrent avec force, c’est l’urgence d’une politique de formation aux compétences d’exploitation de l’IA, non pas apprendre à coder des modèles, mais apprendre à penser avec eux, à les interroger, à en critiquer les outputs, à maintenir vivante la compétence que l’on délègue. Former des opérateurs de l’abondance. Cette tâche revient en premier lieu aux institutions d’enseignement supérieur, et elle est urgente, parce que la contraction des flux d’entrée des jeunes dans les métiers exposés laisse peu de temps avant que l’apprentissage ne soit structurellement impossible.
Car ce que l’IA ne peut pas faire à notre place, c’est précisément décider que tel output vaut quelque chose, dans ce contexte, pour cette personne, avec ces enjeux. Ce jugement n’est pas une technique. C’est une forme de responsabilité et elle reste irréductiblement humaine.
Bruno Deffains ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
– ref. L’IA sait tout produire… mais pas encore juger : pourquoi nous devenons des opérateurs de l’abondance – https://theconversation.com/lia-sait-tout-produire-mais-pas-encore-juger-pourquoi-nous-devenons-des-operateurs-de-labondance-280207
