Garanties insuffisantes, organes de contrôle à renforcer, choix de société… Dans un avis publié au journal officiel ce mardi 2 juillet, mis en ligne une dizaine de jours plus tôt sur son site Web, la Commission nationale consultative des droits de l’homme (CNCDH), un organe qui conseille le gouvernement français en matière de droits de l’homme, tire à boulet rouge sur le dispositif actuel de VSA, la vidéosurveillance dopée aux algorithmes.
Alors que des caméras boostées à l’IA sont expérimentées avant, pendant et après les Jeux olympiques de Paris, un événement synonyme de « déploiement plus significatif de la VSA », la CNCDH dresse un bilan pour le moins critique des garanties actuelles des dispositifs de vidéosurveillance. Pour rappel, la VSA a été autorisée pour la première fois en France (une première en Europe) avec la loi relative aux JO de Paris du 19 mai 2023 : elle est expérimentée jusqu’en mars 2025, à titre d’expérimentation. Dans son avis consultatif, l’autorité indépendante émet une série de recommandations, pour rétablir « l’équilibre rompu » « entre les atteintes aux droits et libertés fondamentaux et la sauvegarde de l’ordre public ».
Elle demande aussi que les « pouvoirs publics reconsidèrent leur volonté d’accélérer le déploiement des dispositifs de vidéoprotection », expliquant « solliciter l’organisation d’un débat démocratique relatif à l’utilisation de la vidéosurveillance algorithmique », en association avec la CNIL, le gendarme français de la vie privée.
À lire aussi : Caméras de surveillance “intelligentes” pour les JO : pourquoi la loi pose problème ?
Systématisation de la surveillance, implication d’acteurs privés dans une mission régalienne…
Depuis la fin des années 90, les caméras de surveillance ont été déployées dans l’espace public avant d’être banalisées, explique la CNCDH. Cette autorité rappelle que « cette technologie policière ne doit être autorisée que dans de strictes limites motivées de lieux, de temps et de finalités, garanties par un contrôle effectif de leur installation et de leur mise en œuvre ». À cette utilisation s’est ajoutée l’intelligence artificielle (IA), en charge de détecter des comportements « anormaux » comme un mouvement de foule, une densité anormalement élevée, ou la présence d’un bagage abandonné.
Cette dernière technologie « s’inscrit dans la continuité de la vidéoprotection et, dans le même temps, (elle) semble en modifier la nature », note l’institution consultative. L’IA « permet en effet une systématisation et une intensification de la surveillance d’une part et, d’autre part, une implication inédite des acteurs privés – les concepteurs des logiciels – dans l’exercice d’une mission régalienne », ajoute-t-elle. L’État a en effet fait appel à des sociétés privées pour concevoir les algorithmes utilisés dans ces outils de vidéosurveillance, comme Briefcam.
Autre problème relevé par cet organe : « ce dispositif renouvelé de vidéosurveillance » pourrait « induire un nouveau type de rapport entre la police et la population, caractérisé par la défiance et la distance ». Ces « nouvelles technologies ravivent la crainte d’une remise en cause de la possibilité pour quiconque d’exercer ses droits et libertés fondamentaux, y compris la liberté de manifester, dans l’espace public de manière anonyme », écrit-il.
Un développement de la VSA dans un contexte de « législation peu contraignante »
L’institution consultative, qui constate que cette VSA s’est développée dans un contexte de « législation peu contraignante », demande au gouvernement de « remettre les exigences de nécessité et de proportionnalité au cœur de la légalité de ces dispositifs attentatoires à des droits et libertés fondamentaux, à plus forte raison lorsque l’on y adjoint de l’intelligence artificielle ».
Une caméra ne devrait pas, par principe, être active à toute heure de la journée et à tout moment de l’année, plaide-t-elle. Si la demande d’installation de ces dispositifs doit être adressée au préfet, elle devrait « exposer les risques de troubles à l’ordre public » qui justifie un tel recours. Le respect de ces exigences de nécessité et de proportionnalité devraient faire l’objet d’un contrôle indépendant systématique, poursuit la CNCDH. Aujourd’hui, l’intervention du juge administratif dépend en effet de l’action des associations de défense des droits sur lesquelles repose « l’effectivité du système », regrette-t-elle.
Le pouvoir de contrôle des commissions départementales de vidéoprotection et de la CNIL doit être renforcé
L’organe consultatif recommande de renforcer les pouvoirs des organes de contrôle, les garanties prévues à l’heure actuelle étant jugées insuffisantes. À commencer par les commissions départementales de vidéoprotection, conçues initialement comme des contre-pouvoirs, mais dont les actions seraient, dans les faits, plus que limitées. Ces dernières sont consultées par le préfet avant qu’il ne prenne sa décision d’autoriser ou de refuser des demandes d’installation. Mais leurs avis sont purement consultatifs. La CNIL, autre organe de contrôle, est, de son côté, loin de disposer des ressources humaines suffisantes, qui permettraient de réaliser des contrôles a posteriori auprès de toutes les municipalités, note la CNCDH.
L’institution recommande donc de renforcer la mission de contrôle de ces deux organes, en rendant par exemple les avis de ces commissions contraignants. La composition de ces dernières devrait aussi être modifiée, notamment pour y inclure une personne désignée par le Défenseur des droits.
Le problème des biais des IA
L’autorité se concentre ensuite spécifiquement sur la VSA, en relevant le problème des différents types de biais des outils algorithmiques. Ces dispositifs sont en effet entraînés en majorité sur des images où les hommes blancs sont surreprésentés, ce qui peut avoir une incidence négative sur les personnes moins représentées. « « Autrement dit, les logiciels commettent plus d’erreurs pour l’identification de personnes d’ascendance africaine, et plus encore lorsqu’il s’agit de femmes », avec « pour conséquence l’interpellation (potentielle) d’une personne identifiée à tort comme une personne recherchée », note l’institution.
Le problème est qu’aujourd’hui, « le contrôle des biais s’apparente à l’heure actuelle à un vœu pieux », regrette-t-elle. Il est quasiment impossible d’identifier les biais retenus par la machine au cours de son apprentissage. La CNCDH demande que « tout utilisateur d’un logiciel de VSA s’assure du caractère non discriminatoire de ce dernier et, dans le cas contraire, qu’il prenne toutes les mesures propres à y remédier ».
Le contrôle d’un agent humain insuffisant
Un autre garde-fou prévu pour l’expérimentation de la VSA est jugé insuffisant par la Commission consultative. La législation française prévoit que les logiciels couplés aux caméras de surveillance « demeurent en permanence sous le contrôle » d’un agent humain. Mais l’agent humain se trouverait davantage en position d’exécutant que de contrôleur vis-à-vis de la machine, estime la CNCDH. En particulier au vu de « la propension de chacun à suivre les recommandations ou alertes produites par un programme informatique (parfois appelé « biais d’automatisation ») ». La CNCDH recommande aux pouvoirs publics de mener une réflexion sur les moyens de garantir effectivement l’autonomie de l’agent face aux alertes de la machine.
Un bouleversement en profondeur de notre conception de l’espace public
Mais « au-delà des contrôles sur les modalités du recours à la VSA », c’est « le principe même de son utilisation qui mérite d’être questionné », écrit la Commission consultative. D’abord parce que « les citoyens ne sont (généralement) pas avertis dans le détail des objets et des situations détectés par la VSA ». Ce type de dispositif nécessite normalement que les personnes filmées en soient préalablement informées.
Problème : les tableaux d’affichage censés avertir les usagers de la présence de VSA sur la voie publique ne sont pas assez visibles, et ne comportent pas suffisamment d’informations — comme les finalités du dispositif, le responsable du traitement, la possibilité de déposer un recours auprès de la CNIL, note l’organe consultatif.
Or, « (ces outils) risquent de développer un sentiment de surveillance accrue ». Et cela est loin d’être anodin : « ces évolutions et ces perceptions bouleversent en profondeur notre conception de l’espace public en lui retirant toute dimension privée. La CNCDH rappelle que l’espace public a historiquement vocation à être un lieu de circulation anonyme qui permet l’exercice des libertés et le respect de la vie privée », écrit l’institution indépendante.
« Ce qui se joue en définitive, c’est un choix de société »
L’organe appelle de manière générale les pouvoirs publics à reconsidérer leur volonté d’accélérer le déploiement des dispositifs de vidéoprotection. Il « s’associe à la CNIL pour solliciter l’organisation d’un débat démocratique relatif à l’utilisation de la VSA ». Car si « garantir la sécurité publique est un objectif légitime » (…), « cela doit toutefois donner lieu à un examen circonstancié, en partant d’une exigence de minimisation de leur présence et de leur impact dans l’espace public ».
Les mots de la CNCDH sont particulièrement cinglants : « ce qui se joue en définitive, c’est un choix de société » : assurer la primauté de la liberté, des corps et des esprits, sous réserve des restrictions requises par la sauvegarde de l’ordre public, ou au contraire faire le choix de la brider par une surveillance généralisée et automatisée ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.