Le projet de règlement européen sur l’intelligence artificielle a reçu le feu vert des 27 pays de l’Union européenne : une énième étape vers l’adoption officielle du texte, malgré le lobbying farouche du gouvernement français. L’exécutif français a cherché à alléger les obligations incombant aux start-up européennes de l’IA, en vain. Lâchée par ses alliés et sous pression, Paris a finalement été contrainte de suivre la majorité.
Un revers pour Paris ? Vendredi dernier, les vingt-sept pays de l’Union européenne ont validé « l’AI Act », le projet de règlement européen sur l’intelligence artificielle (IA). Les ambassadeurs des États membres étaient tous réunis à Bruxelles le 2 février pour donner leur feu vert, y compris la France. Le pays, qui tentait depuis des mois d’œuvrer en coulisse pour rendre le texte moins contraignant, a finalement donné son accord, comme tous les autres pays de l’Union européenne (UE).
Malgré son lobbying, Paris a échoué à convaincre les autres capitales européennes de s’opposer au règlement, un texte qui desservirait ses start-up de l’IA, selon l’exécutif français. Pour Thierry Breton, le commissaire au Marché intérieur, le vote des Vingt-Sept reflète pourtant « l’équilibre trouvé par les négociateurs entre innovation et sécurité » : il s’agit bien d’une « première mondiale », a-t-il écrit sur son compte X.
“Historic, world first, pioneering…”
The #AIAct unleashed a lot of passion…and rightly so!
Today all 27 Member States endorsed the political agreement reached in December — recognising the perfect balance found by the negotiators between innovation & safety.
EU means AI!🇪🇺 pic.twitter.com/dPNeOpLBnT
— Thierry Breton (@ThierryBreton) February 2, 2024
Paris perd ses alliés
Pourtant, pour le Gouvernement français, les règles de l’AI Act étaient trop contraignantes. D’abord parce qu’elles pourraient défavoriser son champion national, la start-up Mistral, ainsi que tous les autres développeurs d’IA européens, expliquait l’exécutif. Ces sociétés devront en effet respecter les nouvelles règles de l’AI Act, contrairement aux premiers arrivés comme OpenAI, Google ou Meta, qui ont déjà pu se développer, sans « contraintes réglementaires ». Après l’accord politique trouvé en décembre dernier entre les trois colégislateurs de l’UE, Emmanuel Macron avait critiqué le projet de règlement, estimant qu’une trop grande réglementation nuirait aux intérêts des entreprises européennes. « Si on perd des leaders ou des pionniers à cause de ça, il faudra y revenir », avait-il déclaré lors d’un discours à Toulouse, le 11 décembre dernier.
Et la France aura fait durer le suspens, presque jusqu’au bout. Avec l’Italie et l’Allemagne, les trois pays militaient pour que le règlement contraignant se transforme en codes de conduite, en vain. Le 30 janvier dernier, le couperet tombe. La minorité de blocage finit par se réduire à peau de chagrin. Berlin se retire d’abord de la liste des récalcitrants. Volker Wissing, le ministre allemand du Numérique, pourtant opposant notoire au texte, se rallie à la majorité, estimant qu’il s’agit d’un « compromis viable », rapporte le Handelsblatt, le 30 janvier dernier. L’Italie suit de peu, isolant Paris dans son opposition à l’AI Act.
La pression des ayants droit
En parallèle, l’exécutif français doit affronter la pression des ayants droit et des créateurs. Ces derniers n’ont cessé de militer pour que la nouvelle obligation de transparence sur les données d’entraînement, imposée par le règlement, soit maintenue. Selon « l’AI Act », les développeurs d’IA doivent publier un résumé détaillé de ces données, un moyen pour permettre aux ayants droit et aux créateurs de réclamer une indemnisation. Le monde de la culture s’estime lésé voire pillé par les outils d’IA qui s’entraînent sur leurs œuvres ou leurs créations protégées par le droit d’auteur, sans que la moindre autorisation soit sollicitée, et la moindre indemnisation versée.
À lire aussi : Droit d’auteur : où en est-on dans la bataille qui oppose créateurs et artistes aux développeurs d’IA ?
Or, sans cette liste, difficile pour ces derniers de réclamer le paiement de la moindre indemnité. Paris avait pourtant milité pour que cette liste se limite au strict minimum, ou que ces derniers passent par « un tiers de confiance », au grand dam du monde de la culture. Ces deux idées ne seront finalement pas adoptées, puisque les fournisseurs d’IA à usage général devront bien publier « un résumé suffisamment détaillé » des données d’entraînement – au grand soulagement des ayants droit, même si la formulation reste vague.
Isolée et sous pression, Paris n’a finalement d’autre choix que de rejoindre la majorité. En théorie, l’accord politique trouvé entre les trois colégislateurs (la Commission, le Parlement et les 27 États membres) en décembre dernier avait déjà été entériné. Il ne manquait plus qu’un accord formel et officiel – ce qui laissait la place à des modifications techniques très mineures. En pratique, le ralliement de tous les pays de l’UE au texte était attendu. Si un pays avait manqué à l’appel, cela aurait conduit à un « désastre diplomatique sur la scène européenne », a rappelé Philipp Hacker, professeur de droit à l’European New School of Digital Studies de Francfort, interrogé par nos confrères du Handelsblatt.
Que demandait le Gouvernement français ?
Concrètement, le Gouvernement français demandait deux choses : d’abord, de relever le seuil au-delà duquel les modèles de fondation sont considérés comme comportant un risque systémique. Si l’outil d’IA dépasse un certain niveau de puissance informatique, que la France estime trop bas, l’entreprise qui la développe devra respecter des règles plus strictes. Pour rappel, le projet d’AI Act réglemente les IA via une approche par les risques : plus le risque inhérent à une IA est important, et plus elle doit respecter des obligations.
En haut de cette pyramide, se trouvent les IA à haut risque qui concernent les infrastructures critiques, les services essentiels ou l’éducation. Les sociétés qui les développent devront désormais passer par des procédures d’évaluation préalable, et de contrôle de conformité, avant de pouvoir être accessibles aux Européens. Ces entreprises devront mettre en place un système de gestion du risque, un contrôle humain du système ainsi qu’une documentation technique.
À lire aussi : AI Act : Tout comprendre au futur règlement sur l’intelligence artificielle en 5 points
Or pour Paris, le seuil en question devrait être rehaussé « le plus rapidement possible », a précisé Bercy à Contexte, lundi 5 février. La Commission européenne doit mettre à jour ces seuils en cas d’évolution technologique. L’autre demande de l’Hexagone concernait l’obligation de transparence. Puisque le pays n’a pas réussi à alléger la liste des données d’entraînement, il a plaidé pour introduire dans les considérants du texte (le préambule) la protection du secret des affaires et des informations confidentielles.
Les start-up estiment en effet que publier leurs données d’entraînements pourrait profiter à leurs concurrents. Il ne s’agit donc pas à proprement parler d’une nouvelle exception qui serait contraignante. Mais cette référence au secret des affaires pourrait amoindrir les obligations de transparence des développeurs d’IA face à un juge. En d’autres termes, elle pourrait ouvrir la voie à de nombreux contentieux.
Paris compte aussi peser de tout son poids lors de la négociation des actes d’application du règlement et des guidelines, rapporte Luca Bertuzzi d’Euractiv sur son compte X. À commencer par être bien représenté au sein du bureau de l’IA. Cet organe, tout juste créé, devra rédiger le modèle type que les développeurs devront partager avec les ayants droit. L’adoption formelle du Règlement sur l’IA doit encore passer par le feu vert des commissions parlementaires prévu le 13 février, avant le vote de l’ensemble du Parlement les 10 et 11 avril prochain. Le texte pourrait entrer en vigueur courant 2025, au plus tôt.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.