Chaque fois que je reçois un communiqué de presse sur les agents d’intelligence artificielle, je ressens un léger malaise.
Les agents d’intelligence artificielle sont surestimés, mal définis, peut-être dangereux et extrêmement limités.
Et pourtant, tout le monde s’intéresse aux agents. Microsoft a fait des annonces la semaine dernière pour promouvoir son utilisation intensive des agents d’intelligence artificielle, non seulement pour les entreprises, mais aussi pour tous les utilisateurs de Windows. Et cette semaine, Google a fait des annonces aussi sur l’intégration d’agents d’IA à votre routine de création de code. Bref c’est un peu comme laisser le renard garder votre poulailler.
Salesforce présente son modèle de maturité agentique (Agentic Maturity Model)
Mais ce qui me préoccupe vraiment à propos des agents, c’est qu’ils semblent faire l’objet de promesses excessives. Dans cette bouillabaisse, Salesforce arrive toutefois avec quelque chose de raisonnable.
Salesforce présente son modèle de maturité agentique (Agentic Maturity Model), un framework qui définit les étapes clés de l’adoption et des capacités des agents d’IA. Cela peut nous aider à disposer d’un vocabulaire commun lorsque nous évaluons les offres d’agents des différents fournisseurs qui inondent le marché.
« Si les agents peuvent être déployés rapidement, leur mise à l’échelle efficace dans l’entreprise nécessite une approche réfléchie et progressive », explique Shibani Ahuja, vice-président de la stratégie informatique d’entreprise chez Salesforce. « Comprendre la progression des capacités des agents Al est essentiel pour une réussite à long terme, et ce framework fournit une feuille de route claire pour aider les organisations à atteindre des niveaux plus élevés de maturité en matière d’IA. »
5 niveaux de complexité
Il existe un fossé important entre l’image que le public se fait d’un agent d’IA et ce qui est possible. Cela permet aux vendeurs d’appliquer l’IA à presque n’importe quelle offre. Et ce même si les capacités réelles sont peu inspirées ou, comme dans le cas d’Apple avec Siri, en grande partie surévaluées.
Mais Salesforce nous offre cinq niveaux :
- Niveau 0 : Règles fixes et tâches répétitives
- Niveau 1 : Agents de recherche d’informations
- Niveau 2 : Orchestration simple, domaine unique
- Niveau 3 : Orchestration complexe, plusieurs domaines
- Niveau 4 : orchestration multi-agents
Nous allons donc des scripts de base jusqu’aux équipes d’agents travaillant de concert pour accomplir des tâches complexes.
C’est très utile, car nous pouvons alors examiner une offre et déterminer que, oui, elle est « agentique », mais qu’elle n’est en réalité pas beaucoup plus qu’un script – niveau 0. Ou alors, vous parlez d’une chaîne d’approvisionnement entière qui est automatisée, intelligente et hautement adaptative à travers les vendeurs – Niveau 4.
À l’aide du modèle de maturité agentique, examinons chacun des cinq niveaux plus en profondeur.
Image : Salesforce
Niveau 0 : Règles fixes et tâches répétitives
Salesforce décrit ce niveau comme « l’automatisation des tâches répétitives à l’aide de règles prédéfinies, sans raisonnement ni capacité d’apprentissage ». Les filtres de messagerie personnalisés en sont un bon exemple. Il n’y a pas de véritable intelligence artificielle, mais ces règles aident à faire le travail.
D’un côté, je me disais qu’il n’était pas logique que Salesforce intègre des tâches répétitives de base dans un modèle décrivant des agents d’IA. Mais après y avoir réfléchi un moment, je me suis rendu compte que c’était logique. En effet, il faut bien commencer quelque part.
La plupart des tâches répétitives pour lesquelles nous demandons aux ordinateurs de nous aider, telles que les règles de messagerie, les scripts de fichiers de programmation et les services qui publient des mises à jour sur les médias sociaux, sont automatisées et permettent de gagner du temps.
Mais que se passerait-il si nous pouvions leur ajouter de l’intelligence ? Je veux des règles de messagerie intelligentes depuis que l’IA générative existe. Et pas seulement que mes règles de messagerie trient mon courrier en fonction de l’adresse électronique.
Je veux que mes règles de messagerie déterminent les communiqués de presse et les placent dans leur propre dossier, mais aussi qu’elles identifient ceux qui sont directement liés à mon domaine d’activité et qu’elles les signalent à mon attention. Il s’agit là d’un travail d’agent d’intelligence artificielle, mais qui n’est pas de niveau 0. Sur la base du cadre, ce défi relève probablement d’un agent de niveau 2.
Mais passons d’abord au niveau 1.
Niveau 1 : Agents de recherche d’informations
Salesforce définit ces agents comme des agents qui vont chercher des informations et qui, en fonction de ces informations, recommandent des actions.
Salesforce prend l’exemple d’un agent de dépannage : vous décrivez un problème, l’agent effectue des recherches, puis recommande une solution. Un autre exemple pourrait être celui d’un agent d’achat capable de comparer les offres et les prix et de faire des recommandations.
Mais c’est là que nous nous heurtons aux murs agentiques, un facteur que le modèle de Salesforce ne couvre pas. Supposons que vous souhaitiez créer une entreprise qui fasse des recommandations d’achat et qui envoie les gens sur Amazon pour que vous puissiez obtenir des revenus d’affiliation s’ils achètent. Certains fournisseurs s’y sont essayés. Mais Amazon contrôle ses données. Et bien que vous puissiez certainement scraper des pages web, Amazon aura toujours un avantage parce qu’il possède toutes les données brutes dans ses systèmes.
La question de l’accès à l’information
Ainsi, pour qu’un agent de recherche d’informations puisse faire son travail, il doit être en mesure d’accéder à ces informations. Alors que des fournisseurs comme Apple, Microsoft et Google proposent des outils qu’ils disent capables d’effectuer des actions de recherche d’informations, n’oubliez pas qu’ils comptent sur le fait que vous fassiez partie de leur écosystème.
Microsoft Copilot, par exemple, ne sera certainement pas en mesure d’effectuer des recherches dans votre bibliothèque Google Docs, puis dans votre base de données Notion.
Étendons donc la définition du niveau 1 aux agents qui vont chercher des informations dans les sources de leur écosystème d’accueil. Examinons maintenant le niveau 2.
Niveau 2 : orchestration simple, domaine unique
Le niveau 2 aborde directement la question de l’écosystème en spécifiant que l’activité des agents se déroule dans un environnement de données cloisonné. Cela signifie que toutes les données utilisées sont stockées et disponibles dans un seul environnement.
L’IA de Notion en est un parfait exemple. L’IA de Notion tire ses connaissances principalement de la sélection de notes et de documents que vous conservez dans vos propres archives Notion. Par exemple, je rédige tous mes articles ZDNET dans Notion et je les transfère ensuite dans le système de gestion de contenu (CMS) de ZDNET. L’IA de Notion pourrait fournir des connaissances et des activités basées sur mes articles, mais pas sur ceux d’un autre auteur de ZDNET, parce que ces articles ne se trouvent pas dans cet environnement de données cloisonnées.
En ce qui concerne l’orchestration, l’idée est qu’une orchestration simple signifie des tâches peu complexes. Nous pourrions, en utilisant le même exemple de données, demander à l’IA de créer une liste d’articles dans lesquels j’ai parlé de Salesforce, puis de les organiser en fonction des offres Salesforce abordées. Mais nous ne pourrions pas demander à l’IA d’effectuer une connectivité API complexe et de relier ces articles à des recherches approfondies externes, par exemple.
N’oubliez pas que le cœur de ce niveau est la limitation des données cloisonnées dans un seul magasin de données. C’est ce que Salesforce appelle un domaine unique.
Vous souhaitez travailler sur des silos de données ? Dans ce cas, vous passez au niveau 3. C’est la suite.
Niveau 3 : Orchestration complexe, domaines multiples
Nous arrivons maintenant à ce que le concept d’IA agentique promet. Salesforce décrit ce niveau comme « l’orchestration autonome de plusieurs flux de travail avec des données harmonisées dans plusieurs domaines ». En d’autres termes, votre application ne tombera pas en panne si vous devez obtenir des données de différents écosystèmes ou sources et les intégrer à l’aide d’autres systèmes.
Soyons clairs : c’est très difficile. Du point de vue de l’architecture, il y a vraiment deux possibilités pour y parvenir.
Des API pour communiquer entre les systèmes via des microservices
La première consiste à utiliser une série d’API pour communiquer entre les systèmes via des microservices. En théorie, cela fonctionnerait, mais il faudrait que tous les fournisseurs de l’écosystème de l’information présents dans l’application soient prêts à coopérer. Il y aura des réfractaires, et donc des lacunes dans la mise en œuvre de ce système.
Voici un exemple. Il existe une multitude de services d’affichage social qui prennent vos messages, les programment et les publient sur Facebook, X, Instagram, Bluesky, etc. Mais il y a deux problèmes.
- Premièrement, les réseaux sociaux les plus marginaux ne sont pas toujours représentés.
- Deuxièmement, Facebook autorisera ces outils à publier sur les pages Facebook, mais pas sur les profils Facebook personnels.
Ainsi, si vous vouliez que votre IA soit publiée sur votre profil Facebook, elle n’est pas disponible avec l’autorisation de Facebook.
Lecture d’écran et le clic sur l’écran
Cela nous amène au deuxième choix architectural, qui est la lecture d’écran et le clic sur l’écran. En d’autres termes, l’IA utilise le navigateur comme vous le feriez et clique, glisse, déplace et tape comme vous le feriez. Cette approche dépasse toutes les limites des API, car si un humain peut accéder à une page web, l’IA le peut aussi.
Mais elle n’est pas du tout fiable. Faites-moi confiance. J’ai construit ces solutions. Les pages changent constamment. J’ai construit un autoposter Twitter/X. J’ai découvert que la structure de la page X changeait presque chaque semaine, ce qui nécessitait que mon code réapprenne la page tous les quelques jours. C’est très très pénible.
Que signifie tout cela ? Le niveau 3 peut fonctionner si tous les domaines et flux de travail font partie d’un écosystème coopératif. Cela signifie qu’il y aura toujours des valeurs aberrantes et des parties de la solution qui ne pourront pas être mises en œuvre.
Ce qui nous amène au niveau 4…
Niveau 4 : orchestration multi-agents
Salesforce définit ce niveau comme « l’opérabilité de n’importe quel agent à n’importe quel autre à travers des piles disparates avec la supervision d’un agent ».
Mon exemple d’IA de niveau 4
Il y a une quinzaine d’années, j’ai construit un sous-ensemble de ce niveau. Mon système d’éditeur d’IA consistait en une série de serveurs virtuels, chacun hébergeant un seul agent d’IA. J’avais un certain nombre d’agents qui analysaient les flux d’informations, chacun recherchant son propre domaine d’intérêt. Ces agents fournissaient des pointeurs de nouvelles à un agent qui rédigeait de nouveaux articles sur les nouvelles identifiées par le premier groupe d’agents. Un autre agent ne faisait rien d’autre qu’identifier les images appropriées à chaque article à partir d’une énorme bibliothèque d’images disponibles. Enfin, un autre agent était le rédacteur en chef, qui assemblait les éléments de l’article, effectuait un dernier contrôle de pertinence et publiait les articles sur mon système de gestion de contenu personnalisé.
Vous pouvez voir comment chaque agent a assumé une partie du travail et a dû communiquer avec d’autres agents. Dans mon cas, les agents et les ensembles de données avaient déjà été normalisés, ou j’avais des agents qui effectuaient la normalisation avant d’envoyer les données au membre suivant de l’équipe d’IA. Dans la définition de niveau 4 de Salesforce, ces sources de données n’ont pas besoin d’être normalisées ni même interopérables. Et les agents peuvent appartenir ou non à la même classe d’orchestration.
Je ne pense pas que nous verrons vraiment l’IA agentique de niveau 4, sauf dans les implémentations au niveau de l’entreprise où les équipes informatiques peuvent contrôler la portée du projet global. Mais lorsqu’elle fonctionne, comme avec mon éditeur d’IA, elle peut avoir un effet multiplicateur de force énorme.
Pouvons-nous faire mieux ?
En fait, j’aime bien les cinq niveaux et la définition de Salesforce pour chacun d’entre eux. Je pense qu’ils représentent bien les étapes de l’agentude IA et les types de tâches qu’il peut accomplir. Mais le nom du modèle, Agentic Maturity Model ? Il pourrait être meilleur.
Je recommande de l’appeler « échelle d’intelligence des agents », « échelle des agents intelligents », « niveaux de QI des agents », « indice de puissance des agents », « matrice de maîtrise des agents », « étapes des agents d’IA », « échelle de croissance des agents », « échelle d’intelligence de l’automatisation » ou « échelle d’intelligence des agents ». Chacun d’entre eux serait plus accrocheur et plus convaincant que le modèle de maturité agentique.
Cela dit, je pense que ce système fonctionne et j’y ferai référence lorsque je parlerai des agents à l’avenir.