Vidéosurveillance IA : le Conseil Constitutionnel dit stop

Reconnaissance%20faciale%20illustration%20A%20620



En matière législative, les mesures d’exception tendent souvent à se prolonger au-delà de la période fixée initialement. C’est ainsi que le gouvernement a tenté d’étendre la durée d’expérimentation de la vidéosurveillance algorithmique.

Or, son application avait été autorisée au départ pour les JO de Paris 2024. Pour légaliser le prolongement des expérimentations, l’État comptait sur sa loi sur la sécurité dans les transports adoptée en mars.

Le Conseil Constitutionnel en a décidé autrement.

Une prolongation adoptée via un cavalier législatif

Saisis par des députés de l’opposition (Insoumis, écologistes et socialistes), les Sages du Conseil ont censuré les disposition introduites avec l’aval du gouvernement et qui prévoyaient une extension jusqu’au 1er mars 2027. L’article 15 de la loi a été jugé comme relevant d’un cavalier législatif et à ce titre censuré.

En effet, le Conseil a estimé que ces dispositions “ne présentent pas de lien, même indirect, avec la proposition de loi initiale » ni avec aucune autre « des dispositions qui figuraient dans la proposition de loi déposée sur le bureau du Sénat.”

L’adoption a donc été effectuée “selon une procédure contraire à la Constitution”. La volonté sécuritaire des décideurs politiques est par conséquent retoquée. Les Sages ne se prononcent en revanche pas sur le fond.

Une efficacité pas encore démontrée

En clair, le “Conseil constitutionnel ne préjuge de la conformité du contenu de ces dispositions aux autres exigences constitutionnelles”. Les partisans de la surveillance algorithmique ou des caméras augmentées par l’IA pourraient dès lors récidiver.

Le recours à des logiciels de traitement de données non biométriques n’est pas définitivement enterré, malgré un premier bilan pourtant mitigé. Le rapport du comité chargé de l’évaluation de l’expérimentation remis en février épingle en particulier certains cas d’usage.

Le taux de faux positif avoisine les 72,8% pour des applications comme la détection de bagages abandonnés. De même, la vidéosurveillance algorithmique s’est révélée « très insatisfaisante » pour la détection de départ d’incendie ou de chutes.

En décembre 2024, la Cnil mettait en outre en demeure le Ministère de l’Intérieur et huit communes pour leur utilisation de ces technologies. Aucune sanction n’était cependant prononcée, ce qui lui vaudra le qualificatif de “démissionnaire”.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.