Après sept heures de débats, les députés ont finalement voté l’article 7 qui autorise l’expérimentation des caméras dotées d’IA, malgré l’alarme de nombreuses associations de défense des droits civils et de politiques. Ces derniers estiment que la mesure ouvre la voie à la surveillance généralisée. Résumé de ce dispositif controversé, en cinq questions.
La France sera bien la championne de la vidéosurveillance augmentée : les députés ont validé, ce jeudi 23 mars après sept heures de débats, dans un hémicycle presque vide, le principe des caméras dopées aux algorithmes. L’article 7 du projet de loi relatif aux Jeux olympiques de Paris qui auront lieu en 2024 a été largement adopté par les députés présents (59 voix pour, 14 contre), malgré les tribunes et les prises de position de la gauche et des associations de défense des droits civils de ces derniers mois. Le texte autorise l’expérimentation controversée de caméras dites intelligentes avant, pendant et après les JO de Paris. Retour sur ce dispositif controversé en cinq questions.
1. Pourquoi a-t-on recours à cette technologie ?
Après le fiasco de la finale de la Ligue des champions au Stade de France en mai dernier, le gouvernement a souhaité se doter d’outils supplémentaires pour assurer la sécurité des JO de Paris. Près de 13 millions de spectateurs sont attendus pendant la compétition. Jusqu’à présent en Europe, aucun pays n’utilise ce type de vidéosurveillance automatisée à grande échelle et en temps réel.
Des expérimentations localisées – y compris en France – ont eu lieu, mais aucune n’a été concluante, expliquait Le Monde le 10 mars dernier. Pourquoi ? Parce que ces algorithmes ne font pas « la différence entre un bagage oublié et un bagage abandonné, entre une personne qui attend et une personne qui fait le guet », écrit le quotidien. Aucune étude n’a jamais prouvée que ce type de technologie permettait de lutter contre la criminalité.
2. Comment fonctionneront ces caméras intelligentes ?
Ces caméras couplées à des systèmes de détection algorithmiques pourront, qu’elles soient fixes ou embarquées dans des drones, scruter la foule, collecter et analyser les images avant d’alerter les forces de l’ordre si un « comportement anormal » est repéré. Les forces de l’ordre pourront alors décider d’agir ou pas.
Problème : le type de comportement qui déclencherait l’alarme de l’IA n’est pas encore défini – il le sera par décret. Gérald Darmanin, le ministre de l’Intérieur, est venu préciser, mercredi 22 mars, qu’il s’agirait « de départs de feu, de goulots d’étranglement, de colis abandonnés ou de mouvements de foule ».
À lire aussi : JO de Paris : pourquoi les caméras dopées aux algorithmes cristallisent les tensions
3. Quand les caméras seront-elles utilisées ?
Un des points très critiqué par les pourfendeurs du texte est relatif à la durée de « l’expérimentation ». Beaucoup craignent en effet que la mesure, censée être exceptionnelle, soit à la fin intégrée dans le droit commun – qu’elle devienne donc la norme, comme cela s’est déjà produit dans le passé pour des mesures anti-terroristes.
Le texte prévoit que le recours aux caméras sera possible pendant les « manifestations sportives, récréatives ou culturelles » qui, « par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ».
En théorie, il sera donc possible d’utiliser ces caméras dès la promulgation de la loi, soit dès la prochaine Coupe du monde de rugby qui aura lieu du 8 septembre au 28 octobre 2023. La durée de l’expérimentation a été raccourcie, passant de juin 2025 à décembre 2024 – soit plusieurs mois après la fin des JO de Paris.
4. S’agit-il de reconnaissance faciale, ou de traitement biométrique ?
Le dispositif exclut la reconnaissance faciale, mais repose sur la détection « d’événements anormaux ». S’agit-il oui ou non de traitement biométrique ? La réponse est clairement négative pour le ministre de l’Intérieur, Gérald Darmanin, qui pendant les débats a mis en avant « vingt-huit garanties ». Il a répété qu’il n’était pas question de mettre en place de la « reconnaissance faciale et du traitement biométrique ».
Mais cette vision des choses est réfutée par la députée EELV, Lisa Belluco, qui a expliqué : « L’algorithme va permettre de reconnaître des personnes, sans nécessairement les identifier. Reconnaître signifie fournir une description suffisamment détaillée pour permettre aux agents sur le terrain de repérer une personne ». Or, une telle description se basera forcément sur des caractéristiques comportementales d’une personne. Ce type d’information est bien une donnée biométrique, a rappelé Caroline Lequesne-Roth, maîtresse de conférences en droit public, sur son compte Twitter.
La question a son importance puisque cet article pourrait être un conflit avec le futur règlement sur l’IA (AI Act), actuellement en cours d’adoption au Parlement européen. L’UE pourait effet à interdire l’analyse automatisée de signaux biométriques et comportementaux, a rappelé une lettre de 38 députés européens du 17 mars dernier, envoyée à l’Assemblée nationale.
5. Qu’en disent les critiques ?
Ces Parlementaires européens craignaient, dans leur lettre que « la France crée un précédent de surveillance d’un type jamais vu en Europe, en utilisant le prétexte des Jeux olympiques ». Pour la Quadrature du net, les craintes sont devenues réelles. « Le gouvernement a réussi à faire accepter une des technologies les plus dangereuses jamais déployées », écrit l’association sur son site, ce jeudi 23 mars. Même son de cloche chez Amnesty International, qui déplore un « précédent inquiétant » pour l’UE. Seul espoir désormais pour les opposants au texte : l’article pourrait être retoqué par le Conseil constitutionnel.
Source :
Le Monde