Les agents d’IA ne nous remplacent pas encore

Fredy Hasenmaile, Raiffeisen

3 minutes de lecture

Un agent d’IA est un programme informatique qui est en mesure de prendre des décisions et d’agir de manière autonome afin d’atteindre un certain objectif.

Il y a environ trois ans, un de mes collègues enseignants m’a fait part d’une expérience remarquable lors d’une conférence commune. Il avait chargé son agent d’IA personnel d’organiser en toute autonomie une réunion de ses anciens camarades de classe de gymnase dans un délai de trois mois. Un restaurant approprié à Zurich devait servir de lieu de rendez-vous. L’agent d’IA a simplement reçu la liste des anciens camarades de classe, a ensuite recherché les adresses manquantes, contacté les anciens élèves, réservé le restaurant et pris en charge l’ensemble de la communication. La réunion des anciens élèves a effectivement eu lieu et 17 des 23 anciens camarades étaient présents. J’étais éberlué et c’est à ce moment que j’ai vraiment compris le potentiel que recelait la technologie d’IA et quels bouleversements disruptifs l’utilisation des agents d’IA pouvait entraîner pour le monde du travail. Depuis, la technologie d’IA a continué à faire d’énormes progrès et tout le monde parle aujourd’hui des agents d’IA. L’année 2025 est déjà considérée comme l’année des agents d’IA.

Qu’est-ce qu’un agent d’IA?

Un agent d’IA est un programme informatique qui est en mesure de prendre des décisions et d’agir de manière autonome afin d’atteindre un certain objectif. A cet effet, l’agent observe son environnement, par exemple grâce à des données ou des capteurs, prend des décisions fondées sur ces informations et exécute ensuite les actions correspondantes. A la différence des systèmes d’IA classiques qui ne réagissent qu’aux saisies, par exemple les chatbots, les agents d’IA agissent de manière proactive, planifient, apprennent et s’adaptent à l’évolution de la situation.

Des agents opérant de concert

Les agents d’IA peuvent par exemple se charger de tâches administratives, telles que la planification des rendez-vous, la gestion des e-mails, le reporting ou l’analyse de données. Ils peuvent en toute autonomie écrire du code logiciel, tester des fonctions, corriger des erreurs et documenter automatiquement des processus. La liste est extensible à l’infini, de sorte que l’on peut aussi envisager des entreprises exploitées par des agents d’IA avec une grande autonomie, sans que des humains ne jouent un rôle actif dans les processus opérationnels de base. Dans une telle «société d’agents», ce ne seraient plus les hiérarchies, mais des algorithmes qui dicteraient la progression. Un agent CEO serait au cœur d’une telle société. Il prendrait des décisions stratégiques et délèguerait des tâches opérationnelles à des agents spécialisés. Ces derniers travailleraient par exemple dans les domaines du marketing, de la recherche ou de la communication. Mais de tels systèmes d’agents pourraient-ils vraiment prendre en charge de façon fiable les tâches de services entiers, voire de toute une société?

Une société d’agents serait-elle performante?

Une équipe de chercheurs de l’Université Carnegie-Mellon a voulu déterminer si une telle société d’agents pouvait fonctionner en réalité. La réponse à cette question a de lourdes conséquences, tant sur l’économie qui souhaite intégrer l’IA dans ses processus de travail que sur la politique économique afin de comprendre les effets potentiels sur le marché du travail. Dario Amodei, cofondateur et CEO d’Anthropic, qui est connu pour ses thèses audacieuses, considère par exemple que l’IA se chargera progressivement de l’ensemble des activités humaines à long terme. Le prix Nobel Daron Acemoglu est beaucoup plus sceptique. Il pense qu’il n’y aura pas plus de 5% de tous les emplois qui seraient susceptibles d’être remplacés par l’IA au cours des dix prochaines années ou du moins d’en être fortement impactés.

La réalité: les sociétés d’agents ne fonctionnent pas (encore)

Afin de tester les performances d’une telle société, les chercheurs ont répliqué un petit éditeur de logiciels avec des sites Internet internes et des données et ont confié l’ensemble des postes à des agents d’IA. En tout, douze grands modèles de langage (LLM) ont été testés pour l’expérience, parmi lesquels Claude 3.7 Sonnet (Anthropic), GPT-4o (OpenAI), Gemini 2.5 Pro (Google) et Llama 3.3 (Meta). Les collaborateurs artificiels ont fait office d’analystes financiers, de développeurs de logiciels et de gestionnaires de projet et ont travaillé côte à côte avec des collègues simulés des ressources humaines ou un responsable technique. Les résultats se sont avérés décevants: les agents d’IA n’ont pas été en mesure d’accomplir la plupart des tâches. Gemini 2.5 Pro s’en est le mieux sorti. Mais même ce modèle de pointe, n’a réussi à accomplir complètement que 30% des tâches. Si l’on y ajoute les solutions partielles, le taux de réussite s’élève à 39%. Le nombre des étapes de travail pour accomplir les tâches ainsi que les coûts correspondants ont également été calculés et ont révélé de grosses différences.

Pour de nombreuses problématiques, le début a été prometteur, mais dès que les tâches sont devenues plus complexes, les agents d’IA ont eu des difficultés en raison d’un manque de compréhension ou de compétences sociales ou encore de capacités techniques. Les agents d’IA ont par exemple échoué face à de simples fenêtres déroulantes qui bloquaient l’accès aux fichiers nécessaires et qu’ils auraient en principe pu faire disparaître d’un seul clic sur le bouton «x». Dans un autre cas, un agent d’IA n’a pas été mesure avec sa question de trouver la bonne personne dans l’outil de chat de l’entreprise et a purement et simplement décidé de rebaptiser un autre collaborateur. De telles astuces visant à contourner la partie complexe de la tâche ne constituaient pas des cas isolés. Les agents d’IA s’en sont le mieux sortis dans les tâches de développement de logiciels, autrement dit dans des domaines dans lesquels il existe de nombreux supports de formation accessibles au public.

Conclusion: enrichissement mais non remplacement de l’être humain

Ceux qui craignent d’être remplacés dès demain par des agents d’IA dans leur travail peuvent être soulagés dans un premier temps. Actuellement, les meilleurs agents d’IA ne sont pas encore en mesure d’assumer des tâches complexes que les humains arrivent parfaitement à résoudre. D’autres études que celle menée par l’Université Carnegie-Mellon parviennent aux mêmes conclusions. Les agents d’IA peuvent aider à accomplir plus rapidement certaines tâches relativement simples et assister la main-d’œuvre humaine dans des activités plus complexes. La bonne nouvelle pour nous humains est la suivante: nous gagnons du temps pour nous familiariser avec l’IA. Car l’évolution dans le domaine de la technologie d’IA est fulgurante. Des tâches sont aujourd’hui automatisées, alors que cela semblait encore inimaginable il y a quelques années. Nous aurions donc tout intérêt à nous familiariser avec cette nouvelle technologie et de faire en sorte d’être irremplaçables à l’avenir en tant que responsable d’une équipe d’agents d’IA.

A lire aussi...