Décidément, réclamer une pause est devenu tendance. A propos de la réforme des retraites, ce serait l’ultime moyen de faire baisser la tension sociale et politique. Concernant la hausse des taux d’intérêt, cela offrirait une respiration salvatrice pour les banques afin de repousser le spectre d’une nouvelle crise financière. Quant à l’intelligence artificielle (IA), près de 2 000 experts et personnalités du secteur lèvent le pouce pour tenter de stopper ce qu’ils identifient comme une fuite en avant.
Dans une lettre en forme d’alarme sur les menaces que cette technologie fait peser en matière de désinformation voire de perte de contrôle sur notre civilisation, ils exhortent à appuyer sur le bouton « pause ». Or malgré la sophistication et la courbe d’apprentissage bluffante de ChatGPT, le logiciel conversationnel lancé en novembre 2022, cette touche n’a pas été prévue par les concepteurs.
Tels Victor Frankenstein face à sa créature, les cadors de la tech, signataires du document, comme Elon Musk, patron de Tesla, Twitter et investisseur historique d’OpenAI, la société à l’origine de ChatGPT, ou Steve Wozniak, le cofondateur d’Apple, sont pris d’un vertige soudain sur les possibilités effrayantes des systèmes d’IA. Ils mettent en garde la communauté internationale face au développement de « systèmes numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ». La lettre propose en conséquence un moratoire de six mois, le temps de réfléchir sur les conséquences éthiques, sociales et politiques de cette technologie et de définir enfin des règles du jeu. Cette prise de conscience est un curieux mélange de lucidité, de fausse naïveté et d’intérêts bien compris.
Manipulations à l’infini
La lucidité d’abord. Elle appelle à prendre les logiciels conversationnels pour ce qu’ils sont. Derrière l’illusion de sens que ces machines sont capables de générer, il n’y a en définitive qu’un processus d’apprentissage automatique, basé sur des corrélations statistiques, réalisées à partir d’un volume de données toujours plus grand. Elles peuvent, à partir d’un fatras aléatoire de contenu scientifique, d’opinions, d’informations, de propagande et de fausses nouvelles, produire des textes qui, en semblant avoir été rédigés par un humain, sont capables de tromper notre vigilance.
« Avec l’IA, la question “qui parle ?” devient abstraite, explique Olivier Bomsel, directeur de la chaire d’économie des médias à Mines Paris PSL. A partir du moment où l’on ne sait plus qui parle, on ne sait plus ce qui est dit. Le problème est moins une affaire de technologie qu’un sujet de dilution du protocole éditorial dans lequel on ne peut plus identifier l’émetteur. » Avec l’IA, les références et les sources disparaissent. Les faits peuvent être manipulés à l’infini et le rapport au réel endommagé. Si le cri d’alarme des experts de l’IA permet de prendre conscience de ce danger, c’est plutôt un pas dans la bonne direction.
Il vous reste 49.72% de cet article à lire. La suite est réservée aux abonnés.