Le très attendu décret d’application de la loi du 19 mai 2023 relative aux Jeux olympiques et paralympiques de 2024 est paru le 30 août. Le contenu de ce texte, qui encadre le contesté traitement algorithmique des images de vidéoprotection acté par la loi, pose question, au point qu’une réécriture est hautement souhaitable.
Le décret ne pouvait que retranscrire les limites de cette loi, qui autorise à titre expérimental le traitement algorithmique des images collectées au moyen de systèmes de vidéoprotection. Premier pas vers une société de surveillance par intelligence artificielle, cette loi devait fixer des garde-fous pour éviter la dérive vers la fameuse « notation sociale » qui sévit notamment en Chine, et menace nos démocraties avides de sécurité.
Alors que les experts n’ont eu de cesse d’alerter – dans une quasi-unanimité remarquable – sur les biais algorithmiques, sur l’impossibilité de revenir en arrière une fois ces technologies déployées ou encore sur l’absence d’étude démontrant clairement l’efficacité de ces dispositifs coûteux, le Parlement, mené par une majorité inquiète, a adopté un texte peu rassurant pour les défenseurs des libertés publiques. La temporalité de la loi, que reprend son décret d’application, témoigne à elle seule des risques d’extension de ces dispositifs techno-sécuritaires : alors que les Jeux olympiques et paralympiques ne s’étendront pas au-delà de l’année 2024, l’expérimentation pourra, de manière peu compréhensible, avoir lieu jusqu’au 31 mars 2025.
Après des débats houleux au Parlement, le décret se veut rassurant. Les traitements algorithmiques des données de vidéoprotection « se bornent à signaler en temps réel » un certain nombre d’événements prédéterminés, en vue d’une confirmation par des agents chargés de visionner les images. Surtout, ils n’utilisent aucun système d’identification biométrique ni de reconnaissance faciale, « ne peuvent procéder à aucun rapprochement (…) avec d’autres traitements de données » et ne peuvent fonder par eux-mêmes une quelconque décision. L’objet exclusif de ces traitements reste de détecter des événements « susceptibles de présenter ou de révéler un risque d’acte de terrorisme ou d’atteinte grave à la sécurité des personnes », ce qui paraît raisonnable.
Une liste édifiante d’événements prédéterminés
La lecture de l’article 3 du décret ne peut, cependant, qu’alarmer les experts de l’éthique du numérique comme des libertés publiques. La liste des événements prédéterminés que les traitements algorithmiques peuvent avoir pour mission de détecter, en ce qu’ils sont susceptibles de créer un risque terroriste ou d’atteinte grave à la sécurité, est édifiante. On n’y trouve pas moins de huit « événements » : présence d’objets abandonnés, présence ou utilisation d’armes, non-respect par une personne ou un véhicule du sens de circulation commun, franchissement ou présence d’une personne ou d’un véhicule dans une zone interdite ou sensible, présence d’une personne au sol à la suite d’une chute, mouvement de foule, densité trop importante de personnes, départs de feux.
Il vous reste 49.71% de cet article à lire. La suite est réservée aux abonnés.