Ce mercredi 19 juin, l’institut Messine, un think tank soutenu par la Compagnie Nationale des Commissaires aux Comptes (CNCC), organisait une conférence sur l’intelligence artificielle, avec le mathématicien et ancien député Cédric Villani, l’essayiste et philosophe Gaspard Koenig et Laurence Devillers, professeure d’informatique à Sorbonne Université et directrice de recherche sur les interactions affectives humain-machine au CNRS (lire cette très intéressante transcription du podcast Trench Tech où elle parle IA, robots émotionnels, éthique et réglementation).
La recherche de la source
L’institut a publié parallèlement une note sur l’IA (PDF), entretien croisé entre Gaspard Koenig et Cédric Villani – ce dernier avait été chargé par le gouvernement d’une mission sur l’IA, dont est sorti le rapport «Donner un sens à l’intelligence artificielle» (2018 – présentation ici par ZDNet). Dans sa présentation de la note, le think tank indique:
«Deux esprits, amis par ailleurs, qui ont accepté de se prêter au jeu de cet entretien croisé et qui nous apportent leur regard. Ils abordent la genèse de l’intelligence artificielle et des Large Language Models ; traitent des algorithmes et du nudge ; convoquent Rousseau, Socrate ou encore Hayek ; passent par la philosophie confucéenne, le jeu de go et la géopolitique ; évoquent l’agriculture, l’éducation ou encore l’urbanisme.»
La conférence était passionnante, mais si j’en parle ici – outre pour signaler cette note sur l’intelligence artificielle -, c’est parce qu’il a été question de Wikipédia à un moment.
Gaspard Koenig expliquait que «la connaissance humaine depuis les Grecs se caractérise par la recherche de la source». Lorsqu’on fait une recherche sur Google, ou autre moteur – il a cité DuckDuckGo, qu’il recommande parce qu’il «donne d’excellentes informations sans prendre en compte vos propres recherches et vous donner une information subjective» -, on obtient une liste de liens vers des sources. Qu’on trouvera bonnes ou mauvaises, mais on sait d’où elles viennent. Or on peut réfuter une source, et la réfutabilité est essentielle.
Tout le contraire de ChatGPT
«Wikipédia fonctionne comme ça: si vous n’êtes pas d’accord, vous entrez dans une espèce de cellule de discussion avec d’autres wikipédistes, vous échangez entre êtres humains, vous donnez votre source, puisque Wikipédia est une recherche maniaque de la source, sur chaque mot il y a une source qu’il faut regarder. Vous discutez les sources et vous aboutissez à un consensus, ou pas, il y a des règles, et c’est ça la délibération humaine qui produit de la connaissance.»
Soit tout le contraire de ChatGPT, souligne le philosophe, car l’IA ne donne pas de source et ne peut pas être réfutée ou contestée. Gaspard Koenig cite un texte d’Henry Kissinger et Eric Schmidt, l’ancien PDG de Google [je suppose qu’il s’agit du livre «The Age of AI», coécrit avec Daniel Huttenlocher], qui dit que «ChatGPT ne produit pas de la connaissance, mais des ambiguïtés cumulatives».
Un peu plus loin dans les échanges, Cédric Villani est revenu sur l’encyclopédie libre. «La grande affaire de Wikipédia, c’est de profiter de la multitude des savoirs. J’ai demandé une fois à Jimmy Wales [le fondateur de Wikipédia] quelle était la clé de Wikipédia, il m’a répondu « c’est d’avoir réussi à incorporer toutes les énergies incroyables de tous ces gens qui sont des spécialistes de ceci, de cela, des retraités, qui avaient du temps à partager sur leurs trucs », et cette masse d’expertise partagée peut ensuite être interrogée.»
Avec la puissance de calcul et la quantité de données maintenant disponibles, expose le mathématicien, on arrive à l’IA générative, mais «c’est une rupture technologique, pas une rupture scientifique.»
Lire aussi
Pour encadrer l’IA, la Cnil remet le couvert et consulte – 12 juin 2024
Enseigner Wikipédia et les projets liés: un wikimédien en résidence en Auvergne – 31 juillet 2022
Aux racines de Wikipédia, la culture du logiciel libre – 31 mars 2021
IA et robots : un besoin d’éthique et de démystification – 17 mai 2017