le Parlement européen adopte une législation unique pour encadrer son utilisation

le Parlement européen adopte une législation unique pour encadrer son utilisation


C’est la première loi contraignante au monde sur l’intelligence artificielle (IA). Le Parlement européen a adopté mercredi 13 mars des règles pour encadrer l’utilisation de cette technologie. Le texte, qui vise à protéger les droits et la sécurité, tout en soutenant l’innovation, a été voté à une très large majorité par les eurodéputés réunis en session plénière, par 523 voix pour et 46 voix contre.

Le commissaire européen chargé du dossier, Thierry Breton, s’est félicité sur X du « soutien massif » du Parlement à ce texte qui établit les « premières règles contraignantes et complètes au monde pour une IA fiable ». Le projet de loi avait été présenté par la Commission européenne en avril 2021.

A la fin de 2022, l’apparition de ChatGPT, la start-up californienne OpenAI capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes, lui a donné une nouvelle dimension. Ce système a révélé l’énorme potentiel de l’IA, mais aussi ses risques.
La diffusion de fausses photos ou vidéos, plus vraies que nature, a ainsi alerté sur le danger de manipulation de l’opinion.

Un jour « historique »

« Aujourd’hui est un jour historique sur notre long chemin vers la réglementation de l’IA », a déclaré le corapporteur du texte Brando Benifei (sociaux-démocrates) devant la presse mercredi matin. Avec ce texte, « nous avons réussi à trouver un équilibre très fin entre l’intérêt d’innover et l’intérêt de protéger », a ajouté le corapporteur Dragos Tudorache (Renew, centristes et libéraux).

Toutefois, cette législation « n’est que le commencement », a-t-il relevé, rappelant que l’intelligence artificielle continue d’évoluer rapidement. « Nous devrons être très attentifs à cette évolution de la technologie à l’avenir et être prêts à répondre aux nouveaux défis qui pourraient en découler », a prévenu M. Tudorache.

La législation prévoit une approche à deux niveaux. Les modèles d’IA à « usage général » devront respecter des obligations de transparence ainsi que les règles européennes en matière de droit d’auteur. Quant aux systèmes considérés comme à « haut risque », utilisés, par exemple, dans les infrastructures critiques, comme l’éducation, les ressources humaines ou le maintien de l’ordre, ils seront soumis à des exigences plus strictes.

Le texte interdit aussi les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics. Sur ce dernier point, les Etats ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre, comme la prévention d’une menace terroriste ou la recherche ciblée de victimes.

« Règles floues »

La législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, au sein de la Commission européenne. Il pourra infliger des amendes allant de 7,5 millions à 35 millions d’euros, en fonction de l’infraction et de la taille de l’entreprise.

« Nous réglementons le moins possible, mais autant que nécessaire », a écrit sur X le commissaire européen, Thierry Breton. Les Vingt-sept devraient approuver le texte en avril avant que la loi ne soit publiée au Journal officiel de l’Union européenne en mai ou juin.

Le Monde

Offre spéciale étudiants et enseignants

Accédez à tous nos contenus en illimité à partir de 9,99 €/mois au lieu de 11,99 €.

S’abonner

Mais le monde de la tech s’est montré circonspect. « Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d’applications innovantes », estime ainsi Boniface de Champris, un responsable Europe du CCIA, un lobby du secteur.

De leur côté, l’Observatoire des multinationales (France), Corporate Europe Observatory (Belgique) et LobbyControl (Allemagne) redoutent que les lobbys affaiblissent la mise en œuvre des règles entourant l’IA. « De nombreux détails de la loi sur l’IA restent ouverts et doivent être clarifiés (…), par exemple en ce qui concerne les normes, les seuils ou les obligations de transparence. La composition du conseil consultatif de la nouvelle agence européenne pour l’IA reste également floue », ont-ils averti dans un communiqué commun.

Le Monde avec AFP

Réutiliser ce contenu





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.