Après des négociations harassantes, le Parlement européen et le Conseil ont trouvé un terrain d’entente sur l’AI Act, ce texte qui va encadrer et réguler l’intelligence artificielle. Un « moment historique » pour Ursula von der Leyen, la présidente de la Commission européenne.
C’est le petit cadeau de Noël avant l’heure de l’Union européenne au secteur de l’intelligence artificielle : les parlementaires européens et le Conseil (les 27 États membres) se sont finalement mis d’accord sur l’AI Act. « L’UE est le premier continent à définir des règles claires pour l’utilisation de l’intelligence artificielle », se réjouit Thierry Breton qui portait ce texte depuis deux ans.
Des garde-fous pour la reconnaissance faciale
Le texte vise à « garantir que les droits fondamentaux, la démocratie, l’État de droit et la préservation de l’environnement sont protégés contre les intelligences artificielles à haut risque », explique le Parlement. Les détails restent à découvrir (et on sait que le diable peut parfois s’y cacher), mais dans les grandes lignes l’AI Act interdit :
- la catégorisation biométrique selon les croyances politiques, religieuses ou philosophiques, l’orientation sexuelle, la couleur de la peau ;
- la collecte non ciblée d’images faciales sur internet ou à partir de vidéos de surveillance pour créer des bases de données de reconnaissance faciale ;
- la détection des émotions sur le lieu de travail et à l’école ;
- l’évaluation sociale basée sur le comportement ou les caractéristiques personnelles ;
- les systèmes d’IA qui manipulent les comportements pour brider le libre arbitre ;
- les systèmes d’IA qui exploitent les vulnérabilités des personnes en raison de leur âge, handicap, situation sociale ou économique.
De grands principes donc, qui ont au moins le mérite d’avoir été couchés sur le papier. Le texte prévoit toutefois des garde-fous et des exceptions ciblées pour l’utilisation de techniques d’identification biométrique dans l’espace public (pour les forces de l’ordre).
Deal!#AIAct pic.twitter.com/UwNoqmEHt5
— Thierry Breton (@ThierryBreton) December 8, 2023
Pour les systèmes IA classifiés à haut risque, des obligations « claires » sont édictées en raison de leur potentiel de nuisance pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit. Une évaluation de l’impact sur les droits fondamentaux sera obligatoire, et c’est applicable également aux secteurs de l’assurance et de la banque. Les systèmes influençant les résultats aux élections et le comportement des électeurs sont classés à haut risque.
Les systèmes d’IA à « usage général » ainsi que leurs modèles devront se conformer aux exigences de transparence : documentation technique, respect du droit d’auteur, diffusion de résumés sur le contenu utilisé pour la formation du modèle. Enfin, pour les modèles qui présentent des « risques systémiques », les obligations sont plus strictes avec une communication accrue avec la Commission et la mise en place de codes de bonne conduite.
En cas de non respect des règles européennes, les entreprises s’exposent à des amendes pouvant se monter à 35 millions d’euros ou 7 % du chiffre d’affaires mondial.
Le parcours législatif de l’AI Act est encore loin d’être terminé : il faut maintenant un accord formel du Parlement et du Conseil. Une fois le feu vert acquis, il y aura une période de transition avant la mise en œuvre effective des dispositions du texte.
Lire AI Act : Tout comprendre au futur règlement sur l’intelligence artificielle en 5 points