Google Bard est motorisé par un bot, LaMDA, qualifié de « sensible »

Google Bard est motorisé par un bot, LaMDA, qualifié de « sensible »


Avant ChatGPT d’OpenAI, pendant l’été 2022, le programme LaMDA de Google est devenu le chatbot le plus controversé au monde. Image : Tiernan Ray/ZDNET.

Il y a un an, les chercheurs en IA de Google ont publié un programme d’IA qui n’était que l’un des nombreux programmes d’IA proposés régulièrement par les grands laboratoires de recherche.

Connu sous le nom de LaMDA, acronyme de « modèles de langage pour les applications de dialogue », ce programme, qui peut produire des textes à consonance humaine, aurait pu attirer passé inaperçu auprès du grand public.

Cependant, peu après la publication de LaMDA, Blake Lemoine, ancien ingénieur de Google, a suscité la controverse en publiant un document dans lequel il invitait Google à envisager que LaMDA puisse être « sensible » (au sens de doué de sensibilité).

« LaMDA s’inquiète de l’avenir et se souvient du passé »

Google a nié l’éventualité de sa sensibilité, et Blake Lemoine a été mis en congé, puis licencié. La controverse s’est estompée dans les mois qui ont suivi.

Puis, en décembre, un nouveau chatbot a suscité l’intérêt du public : OpenAI a dévoilé ChatGPT qui, à l’instar de LaMDA, est un modèle linguistique de grande envergure fonctionnant via une interface de chat. Depuis, ChatGPT est devenu la seule application de modèle de langage à grande échelle dont tout le monde parle.

Lundi, Google a dévoilé son concurrent de ChatGPT, nommé Bard. Il n’est pour l’heure disponible que pour un petit groupe de testeurs, précise Sundar Pichai, PDG d’Alphabet, la société mère de Google, dans un billet de blog annonçant le logiciel.

Bard est basé sur LaMDA, ce que le PDG d’Alphabet mentionne à plusieurs reprises. Cependant, il ne fait aucune référence aux propos que Blake Lemoine avait tenu l’année dernière concernant sa sensibilité.

Le chercheur affirmait très exactement que « LaMDA veut partager avec l’utilisateur une vie intérieure riche, remplie d’introspection, de méditation et d’imagination ». Avant d’ajouter qu’il « s’inquiète de l’avenir et se souvient du passé. »

La grande question de « l’ancrage factuel »

Au lieu d’évoquer sa sensibilité, Sundar Pichai fait référence à un processus de test initial qui utilisera le retour d’informations humaines pour LaMDA. « Nous combinerons les réactions externes avec nos propres tests internes pour nous assurer que les réponses de Bard répondent à des critères élevés de qualité, de sécurité et d’ancrage dans des informations du monde réel », écrit-il.

Il poursuit : « Nous sommes enthousiastes à l’idée que cette phase de test nous permette de continuer à apprendre et à améliorer la qualité et la rapidité de Bard. »

La référence du PDG d’Alphabet à l’ancrage soulève une question intéressante. ChatGPT est capable de proposer un contenu uniquement basé sur des données jusqu’à un moment donné dans le passé (2021). LaMDA, en revanche, a été conçu expressément pour exploiter les informations actuelles que le programme pourrait récupérer auprès de sources externes.

Les développeurs de LaMDA, une équipe de Google dirigée par Romal Thoppilan, se sont particulièrement intéressés à la manière d’améliorer ce qu’ils appellent « l’ancrage factuel ». Pour ce faire, ils ont autorisé le programme à faire appel à des sources d’information externes, au-delà de ce qu’il a déjà traité au cours de son développement, c’est-à-dire la phase dite d’entraînement.

Etant donné que Google a l’intention d’intégrer Bard dans ses diverses applications, notamment la recherche, la capacité d’incorporer de telles informations actuelles pourrait devenir un élément distinctif de Bard par rapport à ChatGPT.

Cela laisse ouverte la question de savoir si la sensibilité deviendra un facteur de distinction pour Bard ou ChatGPT.

Source : ZDNet.com





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.