Pour d’aucuns, ChatGPT est devenu la première forme d’intelligence artificielle (IA) universelle. On peut tout lui demander, simplement, via une question qu’on poserait à un expert (humain) du domaine abordé, s’il était en face de nous. Il vous répondra comme lui. Pour d’autres, c’est une combinaison heureuse de deux algorithmes d’IA qui ont fait leurs preuves : les robots conversationnels (chat) combinés à une accumulation de tout le contenu du Web jusqu’en 2021. Alors forcément, à toute question posée, il se trouvera bien quelque part dans le Web un contenu qui donne la matière à répondre, réarrangée sous forme d’une conversation.
A l’inverse de l’expert, ChatGPT ne comprend pas le sens de ce qu’il vous raconte : posez-lui une question polémique et, pour peu que ce sur ce domaine, les concepteurs aient moins prêté attention à son entraînement en lui apprenant à rejeter le faux, vous vous retrouverez face à un menteur qui vous répond avec l’assurance d’un imposteur psychopathe. D’une fois à l’autre, il peut répondre tout et son contraire.
C’est parce qu’il ne comprend pas ce qu’il dit que ChatGPT est dangereux. ChatGPT pourrait gonfler le contenu incorrect qu’il capte sur Internet pour peu que ses réponses soient réinjectées comme contenu légitime sur le Web par ses utilisateurs. Quel magnifique empoisonnement d’Internet, à portée de main des complotistes de tout poil !
Le Web déserté ?
Mais il aussi peut détruire le modèle de Google : pourquoi perdre son temps en recherches pour répondre à un question si ChatGPT a déjà la solution ? Il se murmure d’ailleurs que Bing, concurrent du moteur de recherche de Google, va très vite combiner chatGPT à son outil de recherche. C’est alors l’idée même du Web qui en prend un coup si ChatGPT se généralise : pourquoi encore accéder au web si un intermédiaire a déjà tout visité avant vous pour répondre à toutes vos questions ? Le Web est-il voué à devenir un désert ?
Or le projet de régulation de l’IA porté par la Commission (Artificial Intelligence Act) ne semble pas être à la hauteur des risques que représente la percée d’outils comme ChatGPT. Cette régulation classe en effet toutes les applications d’IA en plusieurs catégories selon le niveau de dangerosité.
Il y a d’abord l’IA « prohibée », celle qui déploie des techniques subliminales en dehors de la conscience même de la personne qui en est l’objet. Elle peut lui occasionner un dommage psychologique ou physique. L’IA prohibée est aussi celle qui exploite la vulnérabilité d’un groupe de personnes du fait de leur âge, de leur santé physique ou mentale, ou qui influence son comportement. C’est aussi l’IA qui attribue un score social et conduit à un traitement différencié. Tout ce qui est reconnaissance biométrique dans les espaces publics fera aussi partie de l’IA interdite, sauf s’il s’agit de chercher des victimes de crime ou des enfants disparus, s’il s’agit de prévenir un danger imminent et substantiel pour la vie ou la santé physique des personnes ou d’une attaque terroriste et s’il s’agit de détecter, localiser, identifier ou poursuivre un criminel.
Il vous reste 44.43% de cet article à lire. La suite est réservée aux abonnés.