Pourrez-vous encore dans quelques semaines faire des sit-in ou marcher dans le sens inverse d’une manifestation pour retrouver un ami ? La réponse est oui, mais vous risquez d’être dans le collimateur des forces de l’ordre qui pourraient avoir été « alertées » de vos faits et gestes par des caméras intelligentes. C’est ce que nous apprend le décret d’application de la loi portant sur les JO de Paris de 2024, qui a été publié au Journal officiel mercredi 30 août.
Ce texte vient clore le processus législatif de cette loi qui autorise, pour la toute première fois dans l’Hexagone et en Europe, l’utilisation de cette technologie à grande échelle et en temps réel. Avec cette vidéosurveillance dopée aux algorithmes, les images prises par des caméras vont être passées au crible par des systèmes d’analyses de vidéos en direct, des outils qui seront à la recherche, dans une foule, de « situations anormales »…
Ultime étape du processus législatif, le décret vient préciser certains éléments de la loi votée en mai dernier. Il ne remet nullement en question le fait que, dans les prochaines semaines, les caméras intelligentes feront donc bien partie de nos vies, pendant les Jeux olympiques de Paris, mais aussi avant et un peu après. Après un long processus et malgré les inquiétudes des défenseurs des libertés et des droits civils, le recours à cette nouvelle technologie est désormais possible depuis le 31 août dernier – ce à titre expérimental et jusqu’au 31 mars 2025, soit plusieurs mois après la fin des JO de Paris.
Le décret, dernière brique avant que cette technologie controversée ne soit mise en oeuvre
Ce décret était particulièrement attendu : le texte devait préciser comment ces caméras intelligentes allaient être utilisées, quelles forces de l’ordre pourraient y avoir accès, à quelles conditions. Mais il devait aussi détailler la partie « conception » de ces systèmes développés par des entreprises privées. Par exemple, la loi précise que lorsque ces outils scrutent une foule, ils doivent détecter des « comportements anormaux », « susceptibles de présenter ou de révéler un risque d’acte de terrorisme ou d’atteinte grave à la sécurité des personnes ». De quels « comportements anormaux » s’agit-il ? C’était au décret de trancher la question.
La loi avait été adoptée en mai dernier au Parlement après moult polémiques. Tout était parti du fiasco de la finale de la Ligue des champions au Stade de France en mai 2022. Pour éviter qu’un tel événement ne se répète pendant les JO de Paris, le gouvernement a voulu mettre en place des outils supplémentaires pour assurer la sécurité des compétitions, comme la vidéosurveillance intelligente. Cette technologie a alors fait l’objet d’un vif débat. D’abord parce qu’aucune étude n’a jamais prouvé que ce type de technologie permettait de lutter contre la criminalité, rappelle Amnesty International dans un communiqué. Les algorithmes ne feraient pas la différence entre une personne qui attend et une personne qui fait le guet, entre un bagage oublié et un bagage sciemment abandonné. Ensuite parce que ce type de système, dangereux pour nos libertés, pourrait être détourné, dénonçaient tour à tour une quarantaine d’Eurodéputés dans une lettre adressée à leurs homologues français, puis un collectif d’organisations internationales dont Human Rights Watch ou La Quadrature du Net dans une tribune.
À lire aussi : Caméras de surveillance “intelligentes” pour les JO : pourquoi la loi pose problème ?
Mais en mai dernier, la loi a été votée, Gérald Darmanin, le ministre de l’Intérieur, expliquant qu’à « situation exceptionnelle (les JO et les risques d’attentats terroristes, ndlr), moyens exceptionnels ». Le texte a ensuite été validé par le Conseil constitutionnel. La Commission nationale informatique et libertés (CNIL), la gardienne française des libertés individuelles, a également évalué ce dispositif en juin 2023, dans un avis non contraignant dont la délibération a été publiée le 30 août. Le décret d’application était donc la dernière brique législative à apporter avant que cette technologie controversée puisse être mise en œuvre.
La définition du comportement anormal
Qu’y apprend-on ? Premier point attendu, le « comportement anormal » est bien défini. C’est ce dernier qui, une fois repéré par ces caméras intelligentes, déclenche l’envoi d’un signal aux policiers et gendarmes. Ces « agents (doivent ensuite) confirmer le signalement ou lever le doute », détaille le décret, rappelant que c’est aux forces de l’ordre (humaines) de trancher chaque situation.
Parmi ces éléments qui déclencheraient l’alarme de l’IA, le décret détaille huit événements :
- « la présence d’objets abandonnés,
- la présence ou utilisation d’armes,
- le non-respect, par une personne ou un véhicule, du sens de circulation commun,
- le franchissement ou la présence d’une personne ou d’un véhicule dans une zone interdite ou sensible,
- le mouvement de foule,
- la densité trop importante de personnes,
- les départs de feux,
- et enfin la présence d’une personne au sol à la suite d’une chute ».
Sur ce dernier point, le décret répond à une demande de la CNIL. Dans sa délibération, l’autorité avait demandé au gouvernement de préciser que « la détection d’une personne au sol ne devrait concerner que les seuls cas où celle-ci aurait chuté quelle qu’en soit la cause (par exemple un accident, un malaise ou un choc), et non les cas où une personne est assise à terre de façon continue ». L’objectif du gardien des libertés individuelles était d’éviter que les militants qui organisent des sit-in, ou encore des personnes sans domicile fixe, ne finissent par être repérés et signalés automatiquement par ces caméras intelligentes.
« Aujourd’hui, on va tester cette technologie pendant les JO et on ne sait pas si cela fonctionne »
Plusieurs autres éléments listés suscitent des interrogations, à commencer par « la densité trop importante de personnes ». À partir de quand est-on dans le « trop important » ? Les 13 millions de spectateurs des JO attendus ne vont-ils pas être considérés comme entrant dans cette catégorie, de manière systématique ? En théorie, le système enverrait des alertes aux forces de l’ordre à chaque « densité trop importante » – donc constamment pendant la période des compétitions. « Durant les Jeux olympiques, il va y avoir des problématiques exceptionnelles pour la région parisienne. Un algorithme n’est pas une baguette magique », déplore Noémie Levain, juriste à la Quadrature du Net.
« Il faut au contraire s’atteler à déterminer comment on va gérer l’espace, les transports, comment on va mettre suffisamment d’humains, des personnes qui parlent toutes les langues, etc. Se dire qu’on va mesurer la densité de personnes, c’est vraiment du techno-solutionnisme, de la techno-magie, comme on dit. Ça n’apporte aucune information, mais par contre, détournés de leur contexte, ces outils sont extrêmement dangereux », ajoute-t-elle.
Pour la juriste, le problème est plus général. « Aujourd’hui, on va tester cette technologie pendant les JO et on ne sait pas si cela fonctionne », tacle-t-elle. En octobre dernier, la SNCF a testé des outils de caméras intelligentes à la gare du Nord pendant deux jours. Si le système a bien repéré des entrées à contresens, il s’est révélé incapable de détecter « les ports d’armes » tout comme « des personnes au sol ». Pire : des alarmes ont été déclenchées à plusieurs reprises, par erreur.
À lire aussi : La reconnaissance faciale interdite par le Parlement européen… mais plébiscitée au Sénat
« Un cadeau fait aux industriels »
Ce type de système ne serait pas tout à fait performant, pour l’instant. La loi prévoit d’ailleurs que lors de la phase de conception des futurs algorithmes, les entreprises sélectionnées pourront, pendant douze mois, utiliser un échantillon d’images collectées dans les rues françaises par des caméras publiques. Cet échantillon serait sélectionné par l’État conformément aux exigences de pertinence, d’adéquation et de représentativité. Traduction : l’entreprise qui remportera le marché – les sociétés peuvent candidater jusqu’au 11 septembre, selon l’appel d’offres émis – pourront accéder à un échantillon d’images collectées par des caméras, comme celles se trouvant dans des parcs ou devant des stades de l’Hexagone, pour entraîner les algorithmes.
« Cette loi, c’est un cadeau à l’industrie qui veut développer ces logiciels, qui ne fonctionnent pas très bien, pour avoir des données, pour pouvoir un peu tester en situation réelle. C’est une façon de se rendre indispensable et de faire un premier pas dans l’acceptabilité sociale », tacle Noémie Levain. Car pour entraîner ces algorithmes, il faut des données, donc des images dont le système se servira pour définir des caractéristiques. Ces dernières seront ensuite repérées sur de nouvelles vidéos. Or, « ces entreprises ont des difficultés à s’en procurer, elles achètent des jeux de données à l’étranger, mais elles sont souvent un peu floues, pas toujours légales. Et là, avec cette loi, il y a une possibilité pour ces entreprises d’accéder à des échantillons d’images à partir des caméras dans les rues françaises », ajoute la juriste.
« Le décret ne dit pas grand-chose, alors qu’il aurait pu être très précis »
Face à cette possibilité, la CNIL avait longuement demandé, dans sa délibération, que toutes les personnes se trouvant sur cette collecte soient informées du lieu, de la date de l’événement filmé, et de la réutilisation des images à des fins d’entraînements du système. L’objectif : permettre aux gens qui ne souhaitent pas finir dans ces données de formation de ne pas se rendre à l’événement en question.
Dans le décret, seule une phrase précise, pour répondre à la CNIL, que : « Les informations prévues aux dispositions de la section 2 du chapitre III du règlement (UE) 2016/679 du 27 avril 2016 susvisé sont mises à la disposition des personnes concernées ». Comprenez : ces personnes filmées qui entraîneront un algorithme ont un droit à l’information. Mais comment ce droit sera-t-il mis en œuvre, concrètement ? Le décret ne précise pas les modalités de cette communication. « Sur cette grande étape de conception, qui est cruciale, le décret ne dit pas grand-chose, alors qu’il aurait pu être très précis. Au final, les personnes vont servir de cobayes », regrette la juriste de la Quadrature du Net. Parfois sans le savoir ?
À lire aussi : Reconnaissance faciale : comment « l’œil de Moscou » est utilisé pour traquer les opposants à la guerre en Ukraine
Aucune technique de reconnaissance faciale
Le décret décrit d’autres garde-fous, à l’image de cet autre point qui avait cristallisé les tensions. Les systèmes ne peuvent utiliser « aucun système d’identification biométrique ». Ils ne peuvent mettre en œuvre « aucune technique de reconnaissance faciale ». Et ils ne peuvent fonder, par eux-mêmes, aucune décision individuelle ni aucun acte de poursuite, est-il écrit dans le texte. La CNIL avait rappelé, dans sa délibération, que « les traitements ne permettraient pas le suivi ou la ré-identification de personnes, et ce même grâce à des données autres que biométriques (par exemple par le biais de la reconnaissance de vêtements) ».
Le décret précise enfin des éléments liés à la phase d’exécution, comme la liste des agents pouvant recevoir les signalements des caméras intelligentes, ou le fait que la CNIL a l’équivalent d’un droit de regard sur les solutions mises en œuvre …
Prochaine étape, les regards sont désormais tournés vers l’appel d’offres, qui est en cours, pour « l’acquisition, l’installation et le maintien en condition opérationnelle d’une solution logicielle d’intelligence artificielle de vidéo-protection ». Budget total pour cette expérimentation, censée courir jusqu’en mars 2025 : 2 millions d’euros. Après cette date, les dispositifs utilisés seront évalués. Comment ? Là aussi, un décret en précisera les modalités – il n’a pas encore été publié, mais les défenseurs des droits comptent bien tout faire pour que le dispositif ne soit pas pérennisé. En attendant, les entreprises du secteur peuvent candidater à l’appel d’offres jusqu’au 11 septembre. On connaîtra alors le nom de l’entreprise qui remportera le marché, avant que ne commence une bien étrange période. Celle où nous expérimenterons, bon gré, mal gré, l’ère de la surveillance algorithmique…
À lire aussi : Au Royaume-Uni, l’usage de la reconnaissance faciale basée sur l’IA bientôt étendu ?