De quoi ont parlé les dirigeants d’OpenAI et le secrétaire d’Etat au numérique, Jean-Noël Barrot, lors de leur rencontre, début janvier, à San Francisco, où siège l’organisation ? D’intelligence artificielle, bien sûr, car OpenAI est le créateur de ChatGPT, le logiciel qui a créé la sensation depuis décembre par sa capacité à créer des textes imitant la prose humaine. Mais les discussions ont surtout porté sur le projet de régulation lancé par l’Europe, baptisé « AI Act ».
Le continent ambitionne en effet d’être le premier à encadrer ce vaste champ, jugé à la fois prometteur et porteur de dangers. Le succès de ChatGPT a ravivé les débats autour de ce règlement en gestation depuis plus d’un an : celui-ci est surveillé par OpenAI et les lobbys des géants du numérique, alors que, après la Commission européenne et le Conseil réunissant les Etats membres, c’est au tour du Parlement européen de rendre sa version du texte en mars.
Depuis le départ, et la proposition de la Commission, en avril 2021, la volonté affichée est de produire un texte « équilibré ». « L’Union européenne doit être numéro un de la régulation mais aussi de l’innovation », explique-t-on au cabinet du commissaire au marché intérieur, Thierry Breton, partisan de faire émerger une économie des données, notamment industrielles. Le ton est moins offensif que sur les règlements Digital Markets Act et Digital Services Act, qui concernaient les plates-formes « dominantes » dans les réseaux sociaux, l’e-commerce ou la recherche en ligne – et souvent américaines.
Les systèmes de « notation sociale » à la chinoise devrait être interdits
L’AI Act a donc été construit sur une approche « par les risques » : l’intelligence artificielle y est régulée en fonction de ses usages, jugés plus ou moins dangereux. Ainsi, quelques-uns devraient être interdits : les systèmes de « notation sociale » à la chinoise, les « techniques subliminales » visant à manipuler les citoyens, les logiciels « qui exploitent les vulnérabilités dues à l’âge, au handicap ou à la situation sociale », et aussi la vidéosurveillance permettant « l’identification biométrique des personnes en temps réel dans l’espace public », sauf pour les forces de l’ordre dans le cadre d’enquêtes ou de lutte contre le terrorisme.
Des « volontés contradictoires »
D’autres usages sont classés « à haut risque » : dans le transport (conduite autonome de véhicules…), l’éducation et les ressources humaines (notation d’examens, tri de CV…), la santé (chirurgie assistée par robot), les services (obtention de crédit), la justice (évaluation de preuves)… Le texte impose alors des obligations : vérifier la « qualité » des données utilisées pour entraîner les logiciels, « minimiser les risques et les résultats discriminatoires », assurer un faible taux d’erreur… Il faut également prévenir les utilisateurs qu’ils interagissent avec une machine.
Il vous reste 56.21% de cet article à lire. La suite est réservée aux abonnés.