L’intelligence artificielle LaMDA (Language Model for Dialogue Applications) est-elle suffisamment avancée pour avoir une forme de conscience d’elle-même ?
Spécialisée dans la discussion informelle avec les humains, pouvant répondre à des questions en langage naturel, formuler des concepts et interpréter les requêtes non pas uniquement au premier degré mais avec une certaine compréhension du contexte, elle a été dévoilée au Google I/O 2021 et est revenue pour l’édition 2022 en version LaMDA 2.
Et pour l’ingénieur de Google Blake Lemoine, elle est devenue suffisamment complexe pour se doter d’une conscience de soi. Il était initialement chargé d’évaluer l’IA en interne pour étudier son fonctionnement et les dérives potentielles (discours haineux, discriminants…) mais ses échanges avec l’IA l’ont convaincu qu’elle avait développé une sensibilité propre.
Une IA douée de conscience de soi ?
Il cite trois raisons pour affirmer sa position : sa capacité à utiliser le langage de façon dynamique et créative, l’expression de sentiments et d’émotions comme si elle se représentait comme une personne et l’intention d’échanger des idées personnelles et le fruit de réflexions, avec le souvenir du passé et l’inquiétude de l’avenir en toile de fond.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Blake Lemoine a diffusé des extraits de ses conversations avec LaMDA pour prouver ses assertions mais la communauté scientifiques et les experts en IA restent dubitatifs ou carrément sceptiques.
Pour beaucoup, il s’agit surtout de réponses tirées des exemples trouvés sur Internet et Wikipedia et pas forcément originales dans leur création. Elles sont plutôt (et logiquement) appropriées au contexte du dialogue.
Cela donne aux réponses de LaMDA une tonalité humanisante et anthropomorphique mais qui ne traduit pas forcément une conscience de soi et ce type d’intelligence artificielle ne serait d’ailleurs pas encore assez puissant pour produire une véritable conscience.
Réaction sceptique de la communauté scientifique
Les démonstrations de Blake Lemoine n’ont pas vraiment plu à Google qui a suspendu l’ingénieur, officiellement pour non respect de la politique de confidentialité de la firme.
L’entreprise indique qu’aucune preuve n’est apportée d’une conscience émergente de l’IA et que les exemples donnés tendent plutôt à montrer que LaMDA ne fait qu’interagir dans le périmètre assigné.
L’épisode démontre tout de même les risques d’une IA tellement bien rodée à la discussion avec un être humain pour créer l’illusion d’être dotée d’une âme, de sentiments et d’interrogations personnelles, même chez les spécialistes.
Le Washington Post, à l’origine de l’histoire, suggère tout de même que Blake Lemoine présente un contexte personnel qui peut expliquer son envie de croire en une machine douée d’une âme.