Où en est l’Europe dans l’adoption de son Règlement sur l’intelligence artificielle (IA), le premier texte après la Chine à réglementer un secteur qui suscite autant l’engouement que l’inquiétude ? Les 2 et 3 octobre dernier avait lieu le troisième trilogue, cette réunion entre des représentants du Parlement européen, du Conseil (les 27 États-membres) et de la Commission européenne.
Les trois colégislateurs de l’Union européenne (UE) tentent depuis l’été dernier de s’accorder sur une seule et unique version du texte. Si ce trilogue a permis d’avancer sur certains points, il reste encore des zones de désaccords. Voici ce qu’il faut en retenir.
Comment réguler des systèmes comme ChatGPT ?
C’est la question à laquelle les colégislateurs essaient de répondre depuis des mois. Comme nous vous l’expliquions en mai dernier, lorsque la Commission européenne écrit ce texte en avril 2021, ChatGPT, l’agent conversationnel d’OpenAI, n’est pas encore disponible pour le grand public. La frénésie de l’IA générative, cette technologie qui permet de générer du texte, du code ou des images, n’a pas encore eu lieu.
Initialement, l’exécutif européen avait opté, dans le texte, pour une approche par les risques, l‘IA étant réglementée en fonction de ses usages, avec des obligations plus ou moins fortes de transparence et de gouvernance. L’idée est la suivante : plus le risque est important, et plus les obligations pesant sur les fournisseurs de ces systèmes vont être lourdes.
Mais en novembre 2022, ChatGPT est lancé, suivi quelques mois plus tard par d’autres systèmes similaires (comme Bard ou Ernie Bot). De quoi pousser le Conseil puis le Parlement européen à vouloir réglementer cette IA générative en particulier – en ajoutant de nouvelles dispositions à ce qui était prévu à l’origine.
Les Eurodéputés ont ainsi défini de nouvelles obligations pour ce qu’ils appellent les « modèles de fondation ». À partir du moment où on est face à un « modèle de fondation », qu’importe le risque, il faudrait respecter un certain nombre de règles. Le Conseil, lui, a fait le choix de rester sur une logique d’approche par les risques, pour les « IA à usage général ». Ce qui veut dire que lorsque le risque est peu élevé, les obligations pesant sur le fournisseur d’IA resteraient moindres.
Résultat : les approches entre les deux institutions ne concordent pas. À commencer par la terminologie. « Parler de modèle de fondation, d’abord, est dangereux, parce que c’est beaucoup trop technique », commente Arnaud Latil, maître de conférences de droit privé à Sorbonne Université et membre du « Sorbonne Center for Artificial Intelligence » (SCAI). Depuis deux ans, le législateur s’est échiné à supprimer la dimension technique de l’IA, pour retenir une définition plus large, centrée sur des cas d’usage, et non sur la technique. L’avantage : avec cette « approche fonctionnelle », le texte n’est pas enfermé dans une technologie en particulier, celle des modèles de fondation. Le risque de devoir adopter un autre texte lorsqu’une nouvelle technologie apparaitra est moindre. Mais pour l’instant, ce choix de terminologie ne serait pas encore tranché à la table des négociateurs.
Deuxième problème : faut-il privilégier l’approche du Parlement, ou celle du Conseil ? Plutôt que d’opter pour l’une ou l’autre, la Commission européenne aurait proposé une troisième voie : il s’agirait d’un système à deux niveaux pour réguler le cas particulier des IA génératives, expliquait Contexte, le 3 octobre dernier. Au lieu d’imposer de nouvelles obligations à tous ces outils, l’exécutif propose que sur un premier niveau, les « modèles de fondation » aient simplement à respecter des bonnes pratiques – qui ne seraient pas contraignantes. Et sur un second niveau, pour les modèles de fondation et IA à usage général (les deux termes sont cités) ayant un impact important (donc les plus risqués), des obligations devraient être respectées. Les critères de distinction entre ces deux niveaux ne seraient pas encore arrêtés. Mais pendant le 3ᵉ trilogue, les trois négociateurs auraient bien validé le principe de ce système, sans sa mise en œuvre.
Le filtre d’autoévaluation
Autre point sur lequel le trilogue a réussi à se mettre d’accord : le principe d’un « filtre » proposé par la Commission européenne qui permettra de déterminer si un système tombe dans la catégorie des outils « à haut risque ». L’enjeu est de taille, puisque si c’est le cas, ce dernier devra respecter des obligations beaucoup plus lourdes.
Le fabricant d’un système à haut risque devra d’abord passer par des procédures d’évaluation préalable et de contrôle de conformité avant d’être accessible aux Européens. Il sera ensuite contraint de mettre en place un contrôle humain du système, une politique contraignante de gouvernance des données utilisées pour l’entraînement, en plus de respecter une multitude d’obligations (d’exactitude et de cybersécurité par exemple).
En quoi consiste ce « filtre » sur lequel les trois institutions se sont accordées ? Avant leur mise sur le marché, les fournisseurs d’IA devraient s’auto-évaluer. Si leur système rentre dans une de ces trois catégories – l’outil remplit des tâches basiques, il ne remplace pas l’évaluation humaine, ou il n’effectue que des tâches préparatoires – il ne serait pas considéré comme étant à haut risque.
Cette mesure avait été critiquée par certaines associations, déplorant que ce soit aux fournisseurs d’IA de s’autoévaluer. Il s’agit d’un « échappatoire, qui donne aux entreprises(…) le pouvoir de décider unilatéralement que leur système d’IA soit exempté des exigences du Règlement sur l’IA, même s’il est destiné à être utilisé dans l’un des domaines à haut risque, comme (…) la justice ou les services publics essentiels », écrivaient par exemple une soixantaine d’associations dont La Ligue des droits de l’Homme, dans leur lettre ouverte du 27 septembre.
Pourtant, rappelle Arnaud Latil, « il s’agit d’un principe général de la règlementation ex-ante qui existe par exemple avec le RGPD: on s’auto-évalue, et il y a un contrôle après ». Des garde-fous seraient mis en place : si l’IA œuvre dans le secteur de la santé, les droits fondamentaux et de la sécurité, elle serait automatiquement considérée comme étant « à haut risque ». L’entreprise devrait conserver les traces qui l’ont conduite à cette auto-évaluation, et en cas de fraude, elle devrait payer des amendes salées.
Concrètement, on va « laisser la réglementation lourde pour l’IA à usage opérationnel, et la retirer quand c’est seulement accessoire ou purement procédural. Cela me semble plutôt juste pour encourager l’innovation et éviter que des structures, petites ou grandes, soient contraintes par ces réglementations pour une dimension purement accessoire », estime Arnaud Latil. Les conditions doivent encore être discutées et précisées lors du prochain trilogue du 25 octobre.
Le droit d’auteur toujours en question
Autre sujet que les négociateurs auraient brièvement abordé, sans trancher la question : celui de la publication des données d’entraînements des systèmes d’IA protégées par un droit d’auteur. Aucune avancée n’aurait été observée à ce stade. Le Parlement européen veut contraindre les IA génératives à publier un résumé des données utilisées. Cette nouvelle obligation va dans le bon sens, mais elle n’irait pas assez loin, plaidaient les acteurs de la Culture, quelques jours avant le début du trilogue.
Les ayants droit et les auteurs demandent que les développeurs d’IA publient une liste exhaustive des œuvres sur lesquelles ont été entraînées les IA. Contraindre les fabricants à être transparents à ce sujet permettraient aux auteurs de faire valoir leurs droits. « La question qui va se poser, ensuite, c’est celle-ci : quel sera le partage de la valeur avec les résultats générés par les systèmes d’IA et les ayants droit ? Mais avant d’y répondre, il faudrait d’abord qu’il y ait des registres d’utilisation des œuvres », souligne Arnaud Latil.
Les IA utilisées à des fins « militaires » ou « de sécurité nationale » exclues de l’AI Act ?
D’autres sujets restent à trancher, comme les systèmes d’IA qui ne sont pas régulés par l’AI Act : faut-il exclure seulement les systèmes d’IA « exclusivement utilisés ou développés à des fins militaires » (comme le veut le Parlement) ? Ou plutôt opter pour l’approche plus large des 27 États-membres, qui souhaitent que tous les systèmes « utilisés pour la défense et la sécurité nationale » soient exclus du texte : la question pourrait être réglée lors du prochain trilogue prévu le 25 octobre.