Après l’AI Act, Bruxelles publie un mode d’emploi destiné aux géants de l’IA

Après l'AI Act, Bruxelles publie un mode d'emploi destiné aux géants de l'IA


Jour J pour les fournisseurs de modèles d’IA comme OpenAI, Google, Mistral, Microsoft ou Perplexity : ce jeudi 10 juillet, la Commission européenne a publié le très attendu code de conduites destiné aux modèles d’IA à usage général comme ChatGPT, Le Chat, Perplexity, Claude, Gemini ou Copilot. Le texte vient préciser certaines obligations pour les géants de l’IA, dont celles qui ont trait au droit d’auteur.

Pour que les modèles d’IA génératives comme ChatGPT ou Claude « soient non seulement innovants, mais aussi sûrs et transparents », la Commission européenne a publié ce jeudi 10 juillet le très attendu code de bonnes pratiques pour les modèles d’IA à usage général. Ce texte, prévu par le Règlement européen sur l’intelligence artificielle (AI Act), devait initialement être finalisé en mai dernier. Il s’agit d’une pièce maîtresse de l’AI Act, puisqu’il vient préciser les nouvelles obligations qui incombent aux fournisseurs de modèles d’IA conçus pour accomplir plusieurs tâches comme ChatGPT, Gemini, Le Chat, Copilot, DeepSeek ou encore Llama.

Le code, qui sera signé sur la base du volontariat, « est conçu pour aider l’industrie à se conformer aux règles de l’AI Act  », rappelle la Commission européenne dans son communiqué. Les entreprises développant des IA génératives à usage général doivent se conformer à l’AI Act d’ici le 2 août prochain. Or, la signature de ce code vaudra présomption de conformité au règlement européen. « Les signataires du code bénéficieront d’une charge administrative réduite et d’une sécurité juridique accrue par rapport aux fournisseurs qui prouvent leur conformité par d’autres moyens », confirme l’exécutif.

« J’invite donc tous les fournisseurs de modèles d’IA à usage général à adhérer au code. Ils disposeront ainsi d’une voie claire et collaborative pour se conformer à la loi européenne sur l’IA », a déclaré Henna Virkkunen, la Commissaire européenne chargée de la souveraineté technologique, citée dans le communiqué.

Des précisions attendues sur le droit d’auteur

Le code de bonnes pratiques a été élaboré par « 13 experts indépendants, avec la contribution de plus de 1 000 parties prenantes, dont des fournisseurs de modèles, des petites et moyennes entreprises, des universitaires, des experts en sécurité de l’IA, des détenteurs de droits et des organisations de la société civile », détaille encore la Commission européenne. La veille, des représentants de la société civile déploraient pourtant ne plus avoir de voix au chapitre, à l’inverse des industries de l’IA.

À lire aussi : Ni report, ni réouverture des négociations : la société civile monte au créneau pour défendre l’AI Act

À côté de la sécurité et de la transparence, une partie importante de ce code a trait au droit d’auteur, la pomme de discorde qui oppose ayants droits et créateurs aux développeurs d’IA générative. Le texte prévoit notamment que les entreprises de l’IA ne peuvent pas contourner les « paywalls » ou les restrictions d’accès prévues pour des œuvres protégées par le droit d’auteur. Ces entreprises comme OpenAI, Google, Microsoft, Anthropic ou Mistral ne doivent pas non plus inclure dans leurs données d’entraînement des sites ou des contenus qui sont connus comme portant atteinte au droit d’auteur ou aux droits voisins – à l’image des bibliothèques d’œuvres piratées. Le code prévoit de publier une liste de ces sites.

À lire aussi : Un grand « pillage numérique » : quand l’IA générative défie le droit d’auteur

D’autres paragraphes du code traitent aussi de l’épineuse question des données d’entraînement collectées sur le Web. En théorie, les entreprises d’IA peuvent collecter toutes les données qui se trouvent sur internet, y compris celles protégées par un droit d’auteur ou droits voisins en vertu d’une exception prévue par une directive de 2019, l’exception dite de « text and data mining »… Sauf si l’auteur ou l’ayant droit a exprimé son « opt out », le fait de refuser que telle œuvre finisse comme donnée d’entraînement d’une IA. Dans les faits, de nombreux éditeurs ont par exemple intégré en France le « TDM Reservation protocol » sur leurs sites pour barrer la route aux crawlers du Web. Jusqu’à présent, nul ne sait si cette réserve est réellement respectée par les robots d’indexation des géants de l’IA.

Respect des protocoles d’exclusion, transparence pour les ayants droit, pas d’impact sur la recherche…

Désormais, il est écrit noir sur blanc dans le code de bonnes pratiques que les fournisseurs d’IA à usage général devront respecter tout protocole d’exclusion des robots, à l’image de celui de l’Internet Engineering Task Force, et tout autre protocole de réserve de droits « qui a été adopté par des organisations internationales ou européennes de normalisation, ou qui est conforme à l’état de l’art ».

Les entreprises de l’IA devront d’ailleurs faire preuve de transparence en la matière notamment à l’égard des « titulaires de droits concernés » qui pourront « obtenir des informations sur les robots d’indexation utilisés, leurs fonctions robots.txt et les autres mesures qu’un signataire adopte pour identifier et respecter les réserves de droits ».

Si une entreprise d’IA contrôle aussi un moteur de recherche (ce qui concerne toutes les entreprises d’IA qui deviennent des concurrents de Google Search), le fait de refuser d’être indexés ne doit pas entraîner « des effets négatifs sur l’indexation du contenu ». En d’autres termes, le fait de s’exclure des robots crawlers ne doit pas avoir pour conséquence de disparaître des réponses d’un moteur de recherche.

Des lignes directrices et un modèle de résumé encore attendus

Les entreprises d’IA doivent également « empêcher leurs modèles de générer des résultats qui reproduisent » illégalement des contenus protégés par le droit d’auteur ou les droits voisins. Enfin, les signataires du code s’engagent à désigner un point de contact pour toute communication électronique avec les titulaires de droits concernés. Ils doivent aussi mettre en place une procédure de gestion des plaintes.

À côté de ce code de bonnes pratiques, l’exécutif européen travaille aussi sur deux autres textes : les lignes directrices – qui doivent définir ce qu’est un « modèle d’IA à usage général », mais aussi le modèle de résumé des sources utilisées pour entraîner l’IA générative, un document attendu de pied ferme et avec inquiétude par les auteurs et les ayants droits. Ce document devrait leur permettre de réclamer des dommages et intérêts pour utilisation sans autorisation de leurs œuvres.

Selon Contexte ce jeudi 10 juillet, certaines sociétés de l’IA attendraient que ces deux documents soient finalisés avant d’envisager de signer le code de bonnes pratiques. Le New York Times précise, quant à lui, que Google et OpenAI seraient en train d’étudier le texte final. Meta, le groupe de Mark Zuckerberg qui a lancé le modèle d’IA Llama, avait déjà fait savoir qu’il ne le signerait pas. Les autres entreprises n’ont pour l’instant pas fait de commentaires sur ce sujet.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.