Dans une tribune publiée dans Le Monde, Laure de La Raudière, présidente de l’Arcep, l’autorité de régulation des télécoms, dresse un tableau glaçant où l’intelligence artificielle serait en passe de désintermédier les médias traditionnels. Avec les progrès réalisés ces derniers mois, les grands modèles de langage (LLM) pourraient, selon elle, contrôler « directement l’accès au savoir et son partage au cœur du modèle d’Internet ».
« Outre les enjeux de respect du droit d’auteur et de lutte contre la désinformation, auxquels il est bien évidemment essentiel d’apporter des réponses, les IA génératives, en devenant de nouveaux intermédiaires et de nouveaux médiateurs de l’information, pourraient devenir la porte d’entrée de notre accès à Internet et aux services numériques », estime-t-elle.
Ces nouvelles interfaces conversationnelles pourraient même, à terme, remplacer les moteurs de recherche. Une récente étude du cabinet Gartner prévoit une baisse de 25 % du volume de requêtes des moteurs de recherche d’ici à 2026 pour cette raison. Ce qui remettrait en cause la façon dont l’information est aujourd’hui hiérarchisée et proposée aux utilisateurs.
L’IA lit le journal à votre place
Pour illustrer son propos, l’ancienne députée d’Eure-et-Loir prend l’exemple d’un lecteur assidu de la presse quotidienne. Il se rend chaque jour chez son kiosquier pour acheter Le Monde. Ce dernier lui annonce : « Je vais vous simplifier les choses, j’ai lu Le Monde, d’ailleurs j’ai lu toute la presse dans la nuit. J’ai même avalé toute l’actualité internationale ! Je vais vous faire un résumé de ce que j’ai retenu en quelques minutes. »
Outre le préjudice financier subi par le media en question, cette désintermédiation soulève un grand nombre d’interrogations. Sur quels critères l’IA a opéré le tri des informations ? Quelle confiance puis-je accorder à cette synthèse ? Est-ce que cette IA présente des biais idéologiques conscients ou inconscients ? Peut-elle détecter les fausses informations (fake news) ?
Ce scénario qui ne révèle en rien d’un film de science-fiction est déjà à l’œuvre. Un nombre grandissant de citoyens s’informe par l’intermédiaire de ces résumés de contenus prédigérés. Et non plus à leur source. Pour Laure de La Raudière, il s’agit clairement d’une remise en cause fondamentale du principe de neutralité du Internet qui pose que « tous les fournisseurs d’accès à Internet ont l’interdiction de discriminer l’accès aux contenus qui circulent dans leurs réseaux ».
L’Arcep au coeur du sujet
Cette tribune a été publiée en même que le dernier rapport de l’Arcep sur l’état de l’internet en France. Dans cette étude, le gendarme des télécoms s’inquiète de la manière dont les utilisateurs accèdent à leurs contenus avec l’essor de l’IA générative. Ce qui « pourrait soulever des questions en termes d’ouverture d’internet. »
Chargée de la protection de la neutralité d’internet depuis la loi pour une République numérique de 2016, l’Arcep est au cœur du sujet. Elle souhaite exercer un droit de contrôle sur le développement de l’IA. Elle a pour autre mission, la distribution de la presse. Le régulateur a rappelé, en mars dernier, sa position, lors de sa contribution à un consultation publique de la Commission européenne.
Ce principe de d’internet neutre et ouvert et la liberté de choix des citoyens vis-à-vis des algorithmes d’IA neutralité ont été rappelés en décembre 2022 dans la déclaration européenne sur les droits et principes numériques.
Un droit de contrôle des services d’IA utilisés
Comment lutter contre cette dérive ? Laure de La Raudière évoque les pistes du rapport de la commission sur l’IA missionnée en 2023 par le gouvernement. Entre autres mesures, il s’agit de :
- Former les citoyens et les entreprises à ces nouveaux outils
- Soutenir le développement des IA ouvertes et évaluables par des tiers
- Exiger plus de transparence sur les données utilisées pour l’apprentissage de ces modèles et sur les résultats des évaluations
Elle fait aussi sienne la proposition d’un « droit au paramétrage », émise par la Commission nationale consultative des droits de l’homme. Il permettrait à tout à chacun de contrôler les services d’IA que nous utilisons. La présidente de l’Arcep conclut néanmoins sur une note pessimiste.
« Ne soyons pas naïfs : les mêmes géants qui occupent une place prépondérante dans nos vies numériques ont la capacité de déterminer demain les conditions de circulation de l’information ; soyons sûrs que les mêmes causes produiront les mêmes effets. »