Joëlle Barral est directrice de la recherche fondamentale en intelligence artificielle (IA) chez Google DeepMind, qui, de Londres à Paris en passant par la Silicon Valley, rassemble les équipes de recherche du géant du numérique et de la start-up anglaise d’IA rachetée en 2014. Diplômée de Polytechnique et de l’université américaine Stanford, cette ingénieure travaille chez Google depuis 2004, notamment dans ses projets liés à la santé, dont Verily. Elle répond sur les limites et l’avenir des grands modèles de langage sur lesquels s’appuient les assistants d’IA comme Gemini, que Google va intégrer dans son moteur de recherche ou son environnement Android. Et dit sa foi dans le potentiel de cette technologie pour la recherche, alors que le directeur général de DeepMind, Demis Hassabis, et le chercheur John Jumper viennent de se voir attribuer le prix Nobel de physique.
Où en est le développement de l’IA ? Certains parlent d’une bulle financière ou estiment que les recherches sur les grands modèles de langage atteignent un plateau…
L’IA ne date pas d’hier. Les réseaux de neurones sous jacents à l’IA générative actuelle existent depuis plus de cinquante ans. L’accélération récente a été due à la quantité de données et à la puissance de calcul qui ont permis à ces algorithmes d’arriver à des capacités auxquelles on ne s’attendait pas du tout.
C’est assez rare dans le monde de la recherche de voir un tel engouement de toute la société pour des résultats de recherche. Nous avons vraiment la chance d’être au début d’une nouvelle ère industrielle, d’une révolution. Je ne dirais pas du tout qu’on arrive à un plateau. Au contraire, on est au début de la maîtrise de cette technologie qui va avoir des implications dans un très grand nombre d’activités humaines.
Malgré ces progrès, les assistants d’IA continuent à faire des erreurs factuelles. N’est-ce pas un obstacle à leur utilisation dans les moteurs de recherche ? Ce problème est-il soluble ?
Effectivement, au départ, on avait de l’IA « étroite » qu’on entraînait avec un certain nombre d’exemples, comme pour classifier des images de chats et de chiens, etc. Avec l’IA générative actuelle, on ne montre plus des exemples : les modèles apprennent sur des grands corpus de données et ensuite vont vous dire, sur une séquence de mots, quel est le mot suivant, en fonction de sa fréquence d’apparition dans leurs données d’entraînement.
Pour éviter les erreurs, on peut d’abord « augmenter » ces logiciels en leur apprenant à utiliser des outils : si on donne aux modèles d’IA une calculatrice, ils ne vont plus se tromper quand ils feront une multiplication…
Il vous reste 78.64% de cet article à lire. La suite est réservée aux abonnés.