Le 24 janvier, le Sénat a adopté, au terme de vives discussions, l’article 7 du projet de loi sur les Jeux olympiques, qui autorise à titre expérimental le déploiement de caméras couplées à des systèmes de détection algorithmiques. Des outils à même, selon leurs promoteurs, de détecter des mouvements de foules, des bagages abandonnés ou des comportements suspects. Le cœur du débat a porté, et c’est bien normal, sur les risques majeurs que fait peser la banalisation des technologies de surveillance sur la vie privée. Mais un autre élément, pourtant crucial, n’a été que peu discuté : l’efficacité de ces outils présentés comme « intelligents ».
Expérimentation : le terme suggère une application encadrée, limitée dans le temps, scientifique. Un test grandeur nature, dont les résultats seraient scrutés à la loupe en toute transparence par des experts, pour déterminer si la technologie est au point, utile, respectueuse de la vie privée comme du budget imparti.
En pratique, la décennie d’« expérimentations » – déjà – en matière de vidéosurveillance augmentée montre que c’est systématiquement l’inverse qui se produit. En 2016, la SNCF teste des caméras « intelligentes » pour détecter des agressions. Aucun résultat de l’expérience ne sera jamais communiqué.
En 2019, la mairie de Nice affirme avoir conduit des tests de caméras de reconnaissance faciale ayant réussi 100 % des identifications-tests. Six mois plus tard, la Commission nationale de l’informatique et des libertés critique fortement ce « succès » annoncé, dont les détails n’ont pas été rendus publics, ce qui ne permet pas, selon l’institution, d’avoir « une vision objective de cette expérimentation [ni] un avis sur son efficacité ». Depuis, la ville s’est tournée vers une autre technologie, sans reconnaissance faciale.
En 2020, la RATP « expérimente » durant quelques mois la détection automatique du port du masque dans le métro. Elle explique aujourd’hui au Monde ne pas avoir donné suite, en raison d’un « taux de détection moyen de 89 % » qui restait « inférieur aux observations faites sur le terrain ».
Promesses d’un outil ultra-performant
A l’étranger, où des tests à grande échelle ont été conduits aux Etats-Unis et au Royaume-Uni, des données plus détaillées ont parfois été dévoilées. Elles dressent un bilan très peu convaincant de l’utilité de ces technologies. En 2017, une expérience de détection de visages au carnaval de Notting Hill, à Londres, s’était soldée par un échec quasi total, avec de très nombreux « faux positifs » – des personnes identifiées à tort. En 2021, un audit du gouvernement de l’Utah, aux Etats-Unis, avait rendu un rapport extrêmement critique d’un dispositif de vidéosurveillance « intelligente » acheté par les forces de police de l’Etat à la société Banjo deux ans plus tôt.
L’audit avait montré que l’entreprise, qui avait entre-temps perdu son contrat après la révélation par la presse des liens de son fondateur avec le Ku Klux Klan, avait grossièrement exagéré ce que pouvait faire son système de détection d’incidents en temps réel. Aveuglés par les promesses d’un outil ultra-performant, les policiers de l’Utah avaient en réalité acheté l’équivalent sécuritaire d’un avion renifleur de pétrole, qui n’a jamais permis de détecter le moindre crime.
Ces précédents ne semblent pas avoir découragé les décideurs publics, ni outre-Atlantique ni en France. A Chicago comme à Toulouse, à Metz, à Valenciennes, ou dans des communes plus petites, les « expérimentations » de technologies « intelligentes » de vidéosurveillance se sont multipliées. Avec de grandes différences entre les types d’outils. Pour la détection d’incendies, par exemple, la technologie est bien établie : les caméras thermiques, comme les logiciels de détection de fumée sur des images, fonctionnent. Mais plus les caméras promettent de pouvoir détecter et analyser les comportements humains, plus leur fiabilité diminue.
Fantasme de police prédictive
Or c’est précisément sur ces derniers que se focalise le dispositif envisagé pour les Jeux olympiques de Paris : il exclut la reconnaissance faciale mais se concentre sur la détection « des événements anormaux, des mouvements de foule, des objets abandonnés ou des situations présumant la commission d’infractions ».
Cours en ligne, cours du soir, ateliers : développez vos compétences
Découvrir
Un fantasme de police prédictive qui a, lui aussi, fait l’objet d’un certain nombre d’« expérimentations » ces dernières années. A l’aéroport Schiphol d’Amsterdam, notamment, où les résultats d’un « test » lancé en 2014, et discrètement arrêté depuis, n’ont jamais été communiqués. A Paris, dans la station Châtelet, la RATP avait déployé en 2017 une solution de détection automatique des « événements anormaux », là aussi arrêtée sans bilan public.
Ces dispositifs promettant de détecter un projet d’attentat utilisent tous un mélange de technologies connues, analyse d’images ou de données couplées à l’apprentissage machine, la technologie qui permet à un programme d’analyser de vastes corpus de données pour en déduire des liens entre différents éléments. Les limites et les présupposés scientifiques discutables de ces outils sont bien documentés. Même les logiciels les plus aboutis sont incapables de faire la différence entre un bagage oublié et un bagage abandonné, ou entre une personne qui attend et une personne qui fait le guet.
Plus inquiétant, les technologies promettant de pouvoir identifier les criminels ou terroristes prêts à passer à l’action utilisent toutes des systèmes de détection du stress. Soit le même principe de fonctionnement que les polygraphes, ou « détecteurs de mensonges », dont la fiabilité est aujourd’hui très largement discréditée.
Aucune de ces technologies n’a pu faire la preuve de son efficacité, a fortiori en temps réel. Comment le pourraient-elles, alors que l’utilité de la vidéosurveillance « classique », pourtant déployée à grande échelle depuis vingt ans, ne fait toujours pas consensus ?
L’embarras des écologistes lyonnais sur la vidéosurveillance
Le préfet de la région Auvergne-Rhône-Alpes, Pascal Mailhos, réclame depuis plusieurs mois une convention pour prévoir le déport des caméras de vidéosurveillance de la ville de Lyon dans la salle de commandement de la police nationale. Mis en place dans la commune voisine de Villeurbanne (Rhône), ce dispositif permet à la police de prendre le contrôle des caméras municipales en cas d’événements graves. Les élus écologistes s’y refusent, prétextant un audit pour « évaluer la question des usages ».
La ville de Lyon dispose de 571 caméras de surveillance, avec un centre de supervision municipal. La majorité écologiste a ajouté six caméras nomades et annonce faire l’acquisition de six autres dans les mois à venir, mais elle n’entend pas aller plus loin. « La Cour des comptes nous demande d’évaluer les politiques publiques, nous nous inscrivons dans les pas de la Cour des comptes », a justifié Grégory Doucet, maire de la ville, le 6 juillet, en préambule d’un conseil municipal consacré à la revalorisation de la police municipale.
Vu de la préfecture, l’audit sur l’utilisation des caméras ressemble à un prétexte, destiné à repousser le développement de la vidéosurveillance. « Nous assumons une vision très claire et pragmatique en matière de sécurité. Je fais de la tranquillité publique une priorité », a pourtant assuré Grégory Doucet, lors du conseil municipal. Le maire écologiste dit prendre sa part, tout en rappelant que la sécurité relève principalement de la mission régalienne de l’Etat. « Il y a une interrogation sur la garantie de l’équilibre entre la sécurité et le respect des libertés publiques. Nous ne voulons pas remplacer les moyens humains par des caméras », reconnaît Mohamed Chihi, adjoint à la sécurité de la ville de Lyon, lors d’une conversation en marge du conseil. L’exécutif municipal reste dans une inconfortable ambivalence sur la question des caméras de vidéoprotection, tiraillé entre sa version officielle sur la bonne gestion des équipements et sa réticence de principe à la surveillance généralisée, sans l’assumer ouvertement.