La législation pour réguler l’intelligence artificielle définitivement adoptée par l’Union européenne

La législation pour réguler l’intelligence artificielle définitivement adoptée par l’Union européenne


Les vingt-sept pays membres de l’Union européenne (UE) ont définitivement approuvé, mardi 21 mai, une législation inédite au niveau mondial, pour réguler les systèmes d’intelligence artificielle (IA) afin de favoriser l’innovation en Europe, tout en limitant les possibles dérives.

Les législateurs de l’UE avaient trouvé un accord au début de décembre, au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d’avenir. Le texte avait été adopté le 13 mars à une très large majorité par les eurodéputés.

Lire aussi | Article réservé à nos abonnés Peut-on expliquer l’Intelligence artificielle ?

Avec « cette législation historique, la première du genre dans le monde », l’Europe « souligne l’importance de la confiance, de la transparence et de la responsabilité (…), tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne », a déclaré dans un communiqué Mathieu Michel, secrétaire d’Etat au numérique belge, dont le pays assure la présidence du conseil de l’UE jusqu’à la fin de juin.

Cette législation s’appliquera pour l’essentiel à partir de 2026. Elle adopte une approche « fondée sur le risque » et impose aux différents systèmes d’intelligence artificielle des contraintes proportionnées aux dangers qu’ils représentent pour la société.

Les interdictions seront rares

Les systèmes d’IA ne présentant qu’un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumis à des exigences renforcées avant d’être autorisés dans l’UE.

Ces exigences incluront, par exemple, un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes, comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.

Des règles spécifiques s’appliqueront aux IA génératives, comme ChatGPT d’Open AI, pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d’auteur.

Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l’opinion.

Le Monde avec AFP



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.