les négociations butent encore sur les modèles de fondation

Bientôt un permis de conduire numérique valable dans toute l'Union européenne ?


C’est la pomme de la discorde : comment réglementer les IA génératives comme ChatGPT ? Alors que les négociations sont censées arriver à leur terme, il n’existe encore aucun consensus sur la façon dont il faudrait régir les modèles de fondation. Pour la France, rejoints par deux autres États membres, un simple code de conduite devrait suffire. Une position qui est loin de faire l’unanimité, en particulier chez les ayants droit et les créateurs.

Il ne reste qu’un peu plus de deux semaines avant le 6 décembre prochain, jour du prochain trilogue de « l’AI Act », le règlement européen sur l’intelligence artificielle. Pourtant, des points de désaccords subsistent entre les 27 États-membres, le Parlement européen et la Commission européenne, comme la question de la transparence et la façon de réglementer les IA génératives telles ChatGPT, l’agent conversationnel développé par OpenAI. Et ces derniers jours, la nouvelle d’un accord entre trois États membres, dont la France, aurait éloigné la probabilité que les trois colégislateurs européens s’entendent sur un texte avant la fin de l’année.

Un accord France-Italie-Allemagne sur les modèles de fondation ?

Samedi 18 novembre, Reuters nous apprenait que la France, l’Italie et l’Allemagne auraient trouvé un terrain d’entente sur les modèles de fondation, selon un document officieux auquel nos confrères ont eu accès. Cette position commune n’a cependant pas été confirmée par ces trois États membres. Mais d’après l’agence de presse, les trois pays y défenderaient l’idée d’autorégulation pour les modèles d’intelligence artificielle dits de base. Il s’agirait d’une « autorégulation obligatoire par le biais de codes de conduite » mais sans sanction, du moins dans l’immédiat.

Le futur règlement sur l’IA « réglemente l’application de l’IA et non la technologie en tant que telle », peut-on lire sur ce document. Comme nous vous l’expliquions, le texte, proposé en avril 2021 par la Commission européenne, n’a pas vocation à régir la technologie en elle-même. Il définit une pyramide des risques basée sur l’usage de cette technologie. Son principe : plus l’utilisation d’un système d’IA est risquée (par exemple en termes de droits de l’homme, à l’image de système de reconnaissance faciale qui serait utilisé dans un but de contrôle social), et plus le fournisseur de ce système devra respecter des obligations de transparence et de gouvernance. Des utilisations sont totalement prohibées. À l’origine, l’AI Act imposait donc de réelles obligations aux seules utilisations les plus à risque comme l’éducation, les ressources humaines ou les services privés essentiels et publics.

Mais après la vague ChatGPT lancé en novembre 2022, le Parlement européen, sans remettre en cause ce principe de base, a décidé d’introduire de nouvelles dispositions. Les Eurodéputés ont notamment ajouté de nouvelles obligations de transparence qui s’appliqueraient seulement aux « modèles de fondation ». À partir du moment où on est face à un « modèle de fondation », qu’importe le risque, il faudrait respecter un certain nombre de règles. Le Conseil, la représentation des États membres, avait fait le choix de rester sur une logique d’approche par les risques, pour les « IA à usage général ».

Toute la question est donc de savoir si les nouvelles dispositions, ajoutées par les Parlementaires européens, vont survivre à la négociation, et sous quelle forme : s’agira-t-il de réelles obligations ou d’un simple code de conduite à respecter ?

Quelques jours plus tôt, c’était Arthur Mensch, le PDG de la start-up française Mistral AI, qui prenait position, dans un long tweet sur X. Il expliquait regretter que le texte s’éloigne de l’approche initiale fondée sur l’utilisation, pour imposer des obligations aux modèles de fondation en eux-mêmes. Car comment réglementer un modèle qui n’est pas utilisé, questionne-t-il. Selon ce dernier, de nouvelles obligations favoriseraient les acteurs déjà en place comme OpenAI ou Google, dont aucun n’est européen, au détriment des nouveaux qui tentent d’émerger, comme son entreprise.

La France, l’Allemagne et l’Italie se seraient mis d’accord, de leur côté, sur l’absence d’obligations pour ces modèles de fondation, optant pour une autorégulation par le biais de codes de conduite. Selon Euractiv qui a aussi eu accès à ce fameux document officieux, les trois pays plaideraient pour que seules des applications spécifiques (et risquées) des « systèmes d’IA à usage général » soient réglementées, et non les modèles de fondation en eux-mêmes.

Pour faire cette distinction entre ce qui serait à risque et ce qui ne le serait pas, ces États-membres proposeraient que les développeurs de modèles de base publient une sorte de fiche technique, une documentation technique. Ces dernières « comprendront les informations pertinentes pour comprendre le fonctionnement du modèle, ses capacités et ses limites et seront basées sur les meilleures pratiques au sein de la communauté des développeurs », selon le document cité par nos confrères.

« Un organe de gouvernance de l’IA pourrait contribuer à l’élaboration de lignes directrices et vérifier l’application des fiches » techniques, ajoutent-ils. Dans un premier temps, aucune sanction ne devrait être imposée, selon le document, si les entreprises ne respectent pas ce code de conduite. Mais en cas de violations répétées, un système de sanctions pourrait être mis en place.

Les créateurs vent debout contre la position de la France

Cette position, si elle se confirme officiellement, signifierait que les deux articles pour lesquels militent les sociétés de défense des artistes-créateurs sauteraient – à savoir, l’article 28B et l’article 52. Le premier contraindrait les développeurs d’IA à être transparents sur les données d’entraînements des systèmes, puisque ces derniers seraient tenus de publier un résumé plus ou moins détaillé des données protégées utilisées pour l’entraînement. L’article 52 imposerait, de son côté, que tout contenu généré par l’IA soit bien étiqueté en tant que tel.

À lire aussi : AI Act : le monde de la Culture demande à l’Europe d’imposer plus de transparence aux IA génératives

Vendredi 17 novembre, le secteur de la culture publiait pourtant un communiqué, demandant au gouvernement français de revoir sa copie et de ne « pas sacrifier une obligation de transparence sans laquelle rien de solide ne peut être construit ». « Seul le principe intangible d’une transparence sur les données d’entraînement et sur les contenus générés pourra apporter des garanties aux citoyens et aux créateurs sur le respect de leurs droits », écrivent les auteurs de ce texte, signé par 80 syndicats et organisations, dont ceux de la presse, de l’édition, du cinéma, de la musique et de la photographie.

Sans transparence – et donc obligation de publier la liste des contenus utilisés pour l’entraînement des IA, et protégés par le droit d’auteur, il serait en effet difficile voire impossible pour les auteurs et ayants droit de recevoir une indemnisation pour l’utilisation de leur œuvre. Il serait quasi impossible de savoir si telle œuvre a bien été utilisée pour entraîner tel système d’IA.  Le 9 novembre dernier, rapporte Contexte, la France et l’Allemagne avait posé leur véto sur cette obligation de transparence. Il semblerait que le communiqué du monde de la Culture n’ait pas fait bouger d’un iota la position française, au vu du document rapporté par nos confrères de Reuters.

À lire aussi : Droit d’auteur : où en est-on dans la bataille qui oppose créateurs et artistes aux développeurs d’IA ?

Mais pour d’autres, c’est surtout l’idée de code de conduite – et donc de normes non obligatoires qui poseraient problème. Selon Euractiv qui cite un fonctionnaire du Parlement européen, le document officieux, en proposant un code de conduite, serait une véritable « déclaration de guerre », allant à l’encontre de la version adoptée par les Eurodéputés.

Olivier Iteanu, avocat au Barreau de Paris et spécialiste du droit du numérique, a rappelé, dans un billet de blog du 19 novembre, qu’en l’absence de loi s’imposant aux fournisseurs d’IA générative comme OpenAI, les conditions générales d’utilisation (CGU) s’appliquent. Lorsque vous utilisez ChatGPT, ce sont ces CGU qui ont force de loi. Or, que disent-elles ? Qu’OpenAI n’est jamais responsable, quelle que soit l’utilisation de l’agent conversationnel. « Si cette position ne tiendra pas devant un Tribunal, combien d’années, d’argent et de temps, faudra-t-il aux courageux utilisateurs particuliers, pour le faire reconnaître ? » s’interroge le spécialiste, qui plaide pour la mise en place d’une réglementation d’ordre public. À quelle sauce seront mangés les modèles de fondation, ou les IA à usage général ? Devront-ils respecter des obligations ou un simple code de conduite ? Les discussions techniques sont censées reprendre cette semaine. 

Source :

Reuters





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.