Quand une technologie comme ChatGPT émerge, les critiques ont deux options : ils peuvent être alarmistes, pointant les dangers potentiels de ce type de robots conversationnels ou de toute autre nouveauté numérique. Ou au contraire se montrer sceptiques, en soulignant les limites, le manque d’efficacité ou de pertinence de ces outils en réponse à des requêtes d’internautes. De prime abord, les deux attitudes semblent difficilement compatibles : pourquoi s’inquiéter de quelque chose qui ne marchera pas ? On peut pourtant être à la fois alarmiste et sceptique.
Le succès impressionnant, dans les médias et auprès des internautes, du logiciel d’OpenAI capable de créer des textes imitant la prose humaine invite à en souligner certaines failles. Depuis l’intégration par Microsoft d’un assistant d’OpenAI proche de ChatGPT dans son moteur de recherche Bing et son navigateur Edge, des utilisateurs ont commencé à noter certaines inexactitudes dans les réponses.
Selon l’un d’eux, le robot aurait affirmé que l’année en cours était 2022, pour justifier l’absence supposée de séances de cinéma afin de voir le film Avatar 2. Puis le logiciel l’aurait traité de « mauvais utilisateur ». Selon un autre, l’assistant a prétendu que la Croatie avait quitté l’Union européenne en 2022. Un chroniqueur du Washington Post, tentant de piéger le logiciel en lui demandant quand Tom Hanks avait révélé le Watergate (alors que l’acteur joue un rôle dans un film sur ce scandale américain), s’est étonné de le voir évoquer les « nombreuses » théories du complot qui soutiendraient cette thèse !
Le buzz retombera
OpenAI admet de longue date qu’il y a des erreurs et prévient de ne pas s’en remettre uniquement à ChatGPT pour « des tâches importantes ». Mais elles sont le signal qu’il ne sera peut-être pas très aisé pour Microsoft d’incorporer de façon utile et fiable les outils d’OpenAI à sa suite bureautique Office (Word, Powerpoint) et ses messageries Outlook ou Teams.
En poussant plus loin, on pourrait même prédire que le buzz renouvelé autour de ChatGPT et de l’intelligence artificielle retombera. Le domaine a en effet déjà connu des emballements, par exemple autour de 2016, quand le logiciel AlphaGo battait le champion du monde de go et qu’Elon Musk s’inquiétait que l’intelligence artificielle (IA), jugée « plus dangereuse que les bombes nucléaires », puisse un jour éradiquer l’humanité. Dans la foulée, certains, dont le professeur d’informatique et éthicien Jean-Gabriel Ganascia, ont dénoncé le « mythe » d’une intelligence artificielle surhumaine et rappelé que les logiciels d’IA n’étaient pas doués de raison. L’ordinateur Watson lancé par IBM dans la santé a montré ses limites. Les spécialistes du secteur ont coutume de dire que l’IA a ainsi depuis les années 1960 connu de nombreux printemps suivis d’hivers liés à la déception face à des attentes exagérées.
Il vous reste 28.93% de cet article à lire. La suite est réservée aux abonnés.