Les agents d’IA seront ambiants, mais pas autonomes

Les agents d'IA seront ambiants, mais pas autonomes



Harrison Chase, PDG et cofondateur de LangChain, monte sur scène lors du Cisco Live ! pour parler des agents ambiants. Sabrina Ortiz/ZDNET

Cisco Live ! (Las Vegas) – Jusqu’à récemment, les solutions d’IA capables d’exécuter des tâches en votre nom semblaient futuristes. Aujourd’hui, l’ère des agents d’intelligence artificielle est arrivée, et presque toutes les entreprises proposent leur propre solution. Toutefois, une étape plus avancée et encore plus prometteuse se profile à l’horizon : les agents ambiants.

Lors de la troisième journée de la conférence Cisco Live !, Harrison Chase, PDG et cofondateur de LangChain, est monté sur scène pour parler des agents ambiants, un concept lancé par son entreprise basée à San Francisco. Comme leur nom l’indique, ces agents s’inspirent de leur environnement pour agir plutôt que d’attendre une intervention humaine.

Quels sont les agents ambiants (et leurs avantages) ?

À l’heure actuelle, l’assistance de l’IA dont bénéficient les utilisateurs est déterministe. C’est-à-dire que l’on attend de l’homme qu’il entre une commande pour obtenir le résultat escompté. Avec les agents ambiants, la manière dont les humains interagissent avec l’IA pour obtenir les résultats souhaités change. Les assistants IA s’appuient plutôt sur des indices environnementaux.

« Nous définissons les agents ambiants comme des agents qui sont déclenchés par des événements, qui fonctionnent en arrière-plan, mais qui ne sont pas complètement autonomes », a déclaré M. Chase.

Il explique que les agents ambiants profitent aux employés. Plutôt que des interactions 1:1 entre les employés humains et les agents, l’ambiance permet à des millions d’agents de fonctionner simultanément en arrière-plan. Au lieu d’être limité au nombre de fenêtres de dialogue que vous pouvez utiliser, vous pouvez compter sur les agents pour lancer les leurs, en réponse à des signaux environnementaux.

Concept similaire à l’informatique ambiante ou ubiquitaire

Ce concept est similaire à celui de l’informatique ambiante ou ubiquitaire, qui intègre la puissance informatique dans notre vie quotidienne pour alimenter des expériences telles que les écosystèmes domestiques intelligents. Au lieu d’actionner individuellement chaque interrupteur, un assistant peut capter des signaux, tels que la baisse de luminosité, pour exécuter une série d’actions.

Les agents ambiants dans l’entreprise pourraient atteindre un objectif similaire. Par exemple des assistants d’IA qui orchestrent les flux de travail et travaillant avec d’autres agents d’IA pour atteindre les résultats souhaités sans intervention humaine.

« Il s’agit en fait d’une combinaison assez puissante lorsque l’on pense à l’empathie et à la créativité humaines, associées à la puissance et à l’ampleur de l’IA », a déclaré Nathan Jokel, VP de Cisco, à ZDNET.

Surmonter les hallucinations

Lorsque l’on parle de ce type d’agents ambiants dotés de capacités avancées, il est facile de s’inquiéter de la confiance que l’on accorde à l’IA. Pour répondre à cette inquiétude, il convient de rappeler la définition que donne Chase des agents ambiants : ils ne sont « pas complètement autonomes ».

M. Chase fait cette distinction parce qu’il insiste sur la nécessité d’une approche « humaine dans la boucle » pour que les agents ambiants fonctionnent efficacement. Un billet de blog de LangChain indique que les humains seront nécessaires aux agents ambiants dans un schéma de notification, de questionnement et d’examen.

  • Notification — L’agent avertit l’humain d’un événement important.
  • Question — L’agent demande à l’humain des instructions ou des éclaircissements avant d’agir.
  • Examen — L’humain confirme si l’action doit être entreprise.

« Il ne s’agit pas d’un système déterministe »

« Il ne s’agit pas d’un système déterministe », ajoute M. Jokel. « Il ne donne pas toujours le même résultat. Un être humain est assis devant le clavier et vérifie que cette décision est la bonne avant qu’elle ne soit exécutée. Et je pense que nous serons dans cet état pendant une période relativement longue ».

Il est difficile d’imaginer comment la même technologie sous-jacente qui alimente les chatbots d’IA tels que ChatGPT, qui hallucinent souvent lorsqu’on leur pose des questions simples, pourrait alimenter ces expériences d’IA ambiantes.

Vijoy Pandey, directeur général et premier vice-président d’Outshift, a déclaré qu’une différence majeure réside dans la spécialisation des modèles.

« Comme dans l’industrie cinématographique, les acteurs se réunissent ensuite pour créer un film. C’est le même processus », a déclaré M. Pandey à ZDNET. « Il s’agit de modèles et d’agents très spécifiques qui accomplissent des tâches spécifiques et non générales ».

On ne s’attend pas à ce qu’un expert en la matière sache tout sur tous les sujets, a expliqué M. Pandey. Pourtant, c’est ce que les gens attendent d’outils tels que ChatGPT, ce qui conduit à une hallucination de l’IA. Ce qu’il faut, ce sont des agents d’IA qui sont des experts en la matière et qui sont vraiment bons dans une tâche précise.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.