La Commission européenne a pris position, avec la publication, en avril 2021, d’une proposition de législation sur l’intelligence artificielle (IA) et l’adoption, en décembre 2022, d’un texte d’orientation générale qui base la réglementation de l’utilisation des systèmes d’IA sur une analyse bénéfices-risques. Les logiciels jugés à haut risque sont ainsi soumis à de nombreuses obligations de certification, de documentation, de gestion des données, de qualité et de sécurité. Cela concerne, par exemple, des systèmes appelés à être utilisés pour déterminer l’admission à un programme d’enseignement ou l’éligibilité aux prestations sociales, remplacer un polygraphe ou gérer des infrastructures critiques comme la fourniture d’eau ou d’électricité.
Le développement de systèmes exploitant les vulnérabilités de certaines personnes, visant à les manipuler ou leur attribuant une « note sociale » est interdit, de même que l’identification biométrique à distance en temps réel dans l’espace public, sauf exceptions spécifiques comme la prévention d’attaques terroristes, appelées selon le journal en ligne
Contexte à disparaître de la version appelée à être votée au mois de mai. Alors que certaines associations proposent d’aller encore plus loin, il sera intéressant de voir comment l’utilisation de la vidéosurveillance automatique pour les Jeux olympiques, adoptée le 23 mars par l’Assemblée nationale, qui ne prévoit heureusement pas l’usage de la reconnaissance faciale, se conformera au règlement européen qui sera finalement voté.
Une différence importante entre la proposition de 2021 et le texte de 2022 est l’exclusion explicite de la recherche scientifique (ouf !) et des activités ayant trait aux forces armées de son champ d’application. Une décision qui aurait peut-être été plus controversée avant la crise ukrainienne. Une autre différence majeure est l’introduction de dispositions spécifiques concernant les systèmes d’IA à usage général car ils peuvent être utilisés comme, ou intégrés à, des systèmes à haut risque.
Une perception alarmiste
Même si leur définition est beaucoup plus large, puisqu’elle inclut par exemple la reconnaissance d’images et de la parole, ces dispositions préfigurent probablement un encadrement général des technologies regroupées autour de la notion maintenant familière d’IA générative. Dans ce contexte, la lettre ouverte en faveur d’une « pause dans les expériences géantes d’IA » publiée récemment en réponse à la publication très (trop ?) médiatisée de ChatGPT et GPT-4 par OpenAI peut inquiéter.
Il vous reste 32.17% de cet article à lire. La suite est réservée aux abonnés.