Après l’échec de cinq réunions de concertation entre la presse, des acteurs de la culture, les industries de l’IA et les pouvoirs publics, le ministère de la Culture envisage bel et bien d’adopter une loi, pour davantage protéger les fournisseurs de contenus.
Après l’échec des négociations, une loi ? Depuis plusieurs mois, les réunions se succèdent entre les ayants droit, la presse et les développeurs d’intelligence artificielle. Et depuis des mois, le sujet ne semble pas avancé d’un iota. « Il apparaît dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative », a prévenu Rachida Dati, la ministre de la Culture, dans un communiqué paru vendredi 28 novembre. En d’autres termes : le gouvernement envisage bel et bien une nouvelle loi sur le droit d’auteur, pour rééquilibrer le rapport de force.
Depuis le début de l’été dernier, les ministères de l’Économie et de la Culture ont organisé près de « 40 réunions bilatérales » ainsi que « cinq concertations » entre la tech et les ayants droit, des réunions au cours desquelles les fabricants d’IA ne semblent pas vouloir réellement négocier, ont déploré les fournisseurs de contenus. Dans une lettre adressée mi-novembre à Rachida Dati, et dont Les Echos et Contexte se sont fait l’écho, plusieurs organisations d’ayants droit estiment que ces concertations n’ont « pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences ».
Un « pillage » pour les créateurs, un « droit de fouille » pour les entreprises de l’IA
Résultat : ils demandent aux pouvoirs publics d’adopter des « solutions législatives fondées sur les recommandations du rapport du CSPLA », le Conseil supérieur de la propriété littéraire et artistique. Ce rapport préconisait le fait d’introduire une « inversion de la charge de la preuve » ou une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA », deux éléments repris par le ministère de Rachida Dati dans son communiqué.
Pour rappel, les ministères de l’Économie et de la Culture ont tenté de jouer les arbitres dans l’épineuse question de la rémunération des artistes, des créateurs et des ayants droit (acteurs, comédiens de voix, écrivains, journalistes, graphistes, illustrateurs, scénaristes, maisons de disque, d’édition, traducteurs, interprètes etc) depuis l’avènement de l’intelligence artificielle générative. Après le lancement de ChatGPT en novembre 2022, les créateurs de contenus ont dénoncé, d’un côté, un « pillage » de leurs œuvres par les entreprises d’IA. Les sociétés comme OpenAI, Google, Anthropic et d’autres ont utilisé sans autorisation et sans contrepartie financière leurs contenus pour entraîner leurs modèles d’IA, un outil qui peut ensuite imiter et concurrencer leurs œuvres ou leurs arts.
À lire aussi : Salaire divisé par deux, moins de contrats, perte de sens… Les traducteurs percutés de plein fouet par l’IA générative
De l’autre, les développeurs d’IA estiment avoir le droit d’utiliser des œuvres protégées par le droit d’auteur à des fins d’entraînement, en vertu de la directive européenne de 2019. Le texte européen, adopté avant l’ère de l’IA générative, prévoit une exception au droit d’auteur pour les outils d’IA – « le text and data mining » ou exemption de fouille.
En Europe, les artistes et les ayants-droit peuvent en théorie s’opposer à ce que leurs œuvres nourrissent ces systèmes, en ayant recours au « opt-out ». Ce dispositif est prévu par la directive sur le droit d’auteur de 2019 lorsque les outils d’IA collectent des données pour s’entraîner : si l’auteur s’y oppose expressément (s’il « opt-out »), ce « text and data mining » (ce droit de fouilles, en français) n’est pas possible. Mais en pratique, ce mécanisme est difficile à mettre en œuvre.
Les auteurs peuvent en effet inscrire expressément sur tel site : « je ne souhaite pas que mon œuvre soit utilisée pour entraîner des IA », ou avoir recours à des programmes informatiques qui bloquent les requêtes de ces outils d’IA. Mais jusqu’à présent, il était difficile de savoir si ces oppositions étaient bien prises en compte, car les développeurs d’IA comme OpenAI, Google ou Mistral n’ont pas communiqué la liste des données utilisées pour entraîner leur outil. Or, sans cette information, les auteurs ne peuvent pas ou peuvent difficilement savoir si leurs œuvres ont été utilisées pour entraîner une IA.
À lire aussi : Cinéma : comment le monde du doublage tente d’endiguer son « pillage » par l’IA
Peu d’accords conclus entre tech et créateurs
Ajoutez à cela que « l’interprétation extensive de l’exemption de fouilles de données contrarie les démarches de contractualisation », écrit le gouvernement. Des accords entre des acteurs de la culture et des entreprises de l’IA ont bien été conclus (en France), mais ils se comptent sur les doigts d’une seule main.
OpenAI (ChatGPT) et Perplexity ont ainsi conclu des contrats avec Le Monde. Mistral AI (Le Chat) a négocié un accord avec l’AFP et Associated Press. Perplexity a également conclu un partenariat avec Humanoid, éditeur de Numerama. Mais hormis ces quelques cas, les négociations « entre grands développeurs et organes de presse ou ayants droit culturels » sont loin d’être « systématiques ». Ils « demeurent insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA », note le ministère de la Culture, dans son communiqué.
Le « droit d’auteur (étant) le socle de notre exception culturelle et un pilier essentiel de notre souveraineté numérique et créative », la Rue de Valois envisage donc bel et bien de légiférer.
Au Sénat, trois élus, auteurs du rapport sur l’IA et la création publié en juillet dernier, se sont aussi engagés à proposer une loi en cas d’échec des négociations, une promesse répétée par le sénateur Pierre Ouzoulias (CRCE-K) à Contexte.
À lire aussi : Meta (Facebook, Instagram, WhatsApp) accusé d’avoir pillé des livres pour son IA en France
Problème : le texte devra être compatible avec le droit européen. Et si l’AI Act oblige désormais les entreprises d’IA à publier un « résumé suffisamment détaillé » des données utilisées pour former leur outil, il ne s’agit pas d’une liste exhaustive. Et pour les ayants droit, la mesure est insuffisante pour obliger les développeurs d’IA à les indemniser ou à cesser leurs « pillages ».
À lire aussi : Droit d’auteur : à partir du 2 août, les IA devront bien dévoiler leurs sources en Europe
En parallèle, le sujet du droit d’auteur à l’ère de l’IA générative est âprement discuté en ce moment à Bruxelles. La Commission européenne a prévu d’évaluer la directive sur le droit d’auteur au milieu de l’année prochaine. Et au Parlement européen, un rapport d’initiative sur l’IA et le droit d’auteur, non contraignant, est l’objet de vives discussions. Alors que les ayants droit militent pour modifier le système actuel, la tech souhaite, de son côté, maintenir le régime actuel.
À lire aussi : Impossible de créer ChatGPT sans contenus protégés par le droit d’auteur, avance OpenAI
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.