Le mtro de Londres a men des tests d’outils de surveillance bass sur l’intelligence artificielle (IA) pour dtecter les dlits en temps rel. Pendant une priode d’essai de douze mois, 11 algorithmes ont t utiliss pour surveiller les usagers de la station de mtro Willesden Green, en combinant l’IA avec des images de vidosurveillance en direct. Plus de 44 000 alertes ont t mises, signalant des comportements agressifs, des armes potentielles, des personnes tombant sur les voies, ou des fraudes tarifaires.
Les documents rvlent des erreurs du systme, suscitant des inquitudes quant la prcision des algorithmes et aux questions de vie prive. Bien que l’essai ait vis amliorer la scurit, des experts soulignent la ncessit de rglementations et de consultations publiques transparentes pour l’utilisation de telles technologies dans les espaces publics.
Des documents expliquent comment Transport for London (TfL), qui exploite le rseau de mtro et de bus de la ville, a utilis un large ventail d’algorithmes de vision par ordinateur pour suivre le comportement des personnes lorsqu’elles se trouvaient dans la station. C’est la premire fois que tous les dtails de l’essai sont rapports, et cela fait suite la dclaration de TfL, en dcembre, d’tendre son utilisation de l’IA pour dtecter l’vasion tarifaire d’autres stations de la capitale britannique.
Lors de l’essai Willesden Green – une station qui accueillait 25 000 visiteurs par jour avant la pandmie de COVID-19 – le systme d’IA a t mis en place pour dtecter les incidents de scurit potentiels afin de permettre au personnel d’aider les personnes dans le besoin, mais il a galement cibl les comportements criminels et antisociaux. Trois documents fournis WIRED expliquent comment les modles d’IA ont t utiliss pour dtecter les fauteuils roulants, les poussettes, les vapoteurs, les personnes accdant des zones non autorises ou se mettant en danger en s’approchant du bord des quais de gare.
Les documents, qui sont partiellement nettoys, montrent galement que l’IA a commis des erreurs au cours de l’essai, par exemple en signalant les enfants qui suivaient leurs parents travers les barrires de billets comme des fraudeurs potentiels, ou en n’tant pas capable de faire la diffrence entre un vlo pliant et un vlo non pliant. Des policiers ont galement particip l’essai en tenant une machette et un pistolet sous les yeux des camras de vidosurveillance, alors que la gare tait ferme, afin d’aider le systme mieux dtecter les armes.
Les experts en protection de la vie prive qui ont examin les documents mettent en doute la prcision des algorithmes de dtection d’objets. Ils affirment galement que l’on ne sait pas exactement combien de personnes taient au courant de l’essai, et prviennent que ces systmes de surveillance pourraient facilement tre tendus l’avenir pour inclure des systmes de dtection plus sophistiqus ou des logiciels de reconnaissance faciale qui tentent d’identifier des individus spcifiques.
Bien que cet essai n’ait pas port sur la reconnaissance faciale, l’utilisation de l’IA dans un espace public pour identifier des comportements, analyser le langage corporel et dduire des caractristiques protges soulve un grand nombre des mmes questions scientifiques, thiques, juridiques et socitales que celles poses par les technologies de reconnaissance faciale , dclare Michael Birtwistle, directeur associ de l’Institut Ada Lovelace, un institut de recherche indpendant.
La nouvelle frontire de la surveillance : intelligence artificielle, drones et reconnaissance faciale
Ces dernires annes, l’utilisation de l’IA dans les espaces publics pour dtecter les comportements, les mouvements ou les identits des personnes s’est accrue, souvent sous le couvert d’approches de villes intelligentes. En juillet de l’anne dernire, des rapports ont rvl que plusieurs stations de mtro de la ville de New York utilisaient l’IA pour dtecter les fraudes.
La police aux tats-Unis semble devenir l’un des principaux clients des entreprises de la Silicon Valley spcialises dans le dveloppement d’outils de surveillance. Des rapports indiquent une augmentation de l’utilisation de technologies d’espionnage, notamment des drones-espions, par les forces de l’ordre amricaines. Selon une nouvelle enqute de la Northwestern Pritzker School of Law, environ 25 % des services de police ont actuellement recours ces technologies.
Ces dispositifs de surveillance sont fournis par des entreprises technologiques finances par des socits de capital-risque renommes l’chelle mondiale. Les experts expriment leur proccupation face l’accroissement de la surveillance gouvernementale. La vente d’quipements de renseignement, de surveillance et d’espionnage l’arme et aux forces de l’ordre gagne en popularit parmi les entreprises et les start-ups technologiques de la Silicon Valley.
Cette tendance, selon les analystes et les dfenseurs des droits de l’homme, renforce le contrle des tats et du gouvernement fdral amricains sur les citoyens. Ces quipements comprennent des drones de surveillance dots d’intelligence artificielle, des robots autonomes patrouilleurs, des programmes de reconnaissance faciale, etc.
Certains analystes trouvent trange que la Silicon Valley soutienne les forces de l’ordre amricaines dans leurs activits d’espionnage, tant donn que cela semble en contradiction avec les valeurs libertaires prnes par de nombreuses personnalits de la technologie qui ont grandi avec les dbuts d’Internet. Bien que la Silicon Valley ait initialement fourni des composants l’industrie militaire amricaine dans les annes 1950, ses relations avec l’tat se sont tendues au fil du temps, passant des missiles autoguids au commerce lectronique et aux iPhones. Cependant, la situation semble voluer actuellement.
En 2019, des chercheurs chinois ont mis au point une camra de 500 mgapixels dote d’intelligence artificielle, capable d’identifier un visage au sein d’une foule de plusieurs milliers de personnes dans des environnements tels que les rues ou les stades, selon un rapport du quotidien britannique The Telegraph. Cette nouvelle technologie, prsente lors de la foire industrielle internationale de la Chine la semaine dernire, peut tre intgre des systmes de reconnaissance faciale et de surveillance en temps rel.
La camra de reconnaissance faciale, surnomme la super camra , offre une rsolution quatre fois plus dtaille que l’il humain et peut se connecter d’autres appareils, expliquent les scientifiques. Grce son intelligence artificielle, la camra est capable de scanner les dtails faciaux de chaque individu et de dtecter instantanment des cibles spcifiques au sein d’une foule importante. Cette avance suscite des inquitudes quant l’atteinte possible d’un niveau critique dans la surveillance par reconnaissance faciale. Xiaoyang Zeng, l’un des chercheurs impliqus dans cette nouvelle technologie, a galement soulign que l’appareil peut capturer des images fixes et enregistrer des vidos simultanment, selon les informations rapportes par le Daily Mail.
Le TfL dclare avoir utilis des images de vidosurveillance existantes, des algorithmes d’intelligence artificielle et de nombreux modles de dtection pour dceler des schmas de comportement. En fournissant au personnel des stations des informations et des notifications sur les mouvements et le comportement des clients, ils pourront, nous l’esprons, ragir plus rapidement toute situation , peut-on lire dans la rponse. Elle ajoute que l’essai a permis d’obtenir des informations sur l’vasion tarifaire qui nous aideront dans nos approches et interventions futures et que les donnes recueillies sont conformes ses politiques en matire de donnes.
Des systmes dvelopps dans des situations o il n’y a pas de lois spcifiques rgissant leur utilisation
Bon nombre de ces systmes sont dvelopps dans des situations o il n’y a pas de lois spcifiques rgissant leur utilisation, avec des mises en garde contre un vide rglementaire au Royaume-Uni. La normalisation de la surveillance par l’IA dans les centres de transport est une pente glissante vers un tat de surveillance et doit faire l’objet d’une plus grande transparence et d’une consultation publique , dclare Stone de Big Brother Watch.
Une tude du Joint Research Councils (JRC) met en garde contre les consquences nfastes sur la sant mentale des employs dues l’accroissement de la surveillance par les employeurs. Le rapport souligne que la surveillance excessive, incluant l’utilisation de webcams, l’enregistrement des frappes au clavier et les traceurs de mouvements, peut entraner des problmes de sant mentale, une baisse de productivit et des dmissions. Pendant la pandmie, l’utilisation de ces technologies a considrablement augment, notamment dans le cadre du travail distance. Le groupe parlementaire britannique multipartite (APPG) sur l’avenir du travail prconise une loi sur la responsabilit des algorithmes pour valuer les impacts des rgimes axs sur la performance.
Selon l’APPG, les technologies de surveillance omniprsente et de fixation d’objectifs sont associes des effets ngatifs sur le bien-tre mental et physique des travailleurs, en raison de la pression constante et de l’valuation automatise. Le rapport du JRC, intitul Electronic Monitoring and Surveillance in the Workplace, met en lumire l’essor de la surveillance au travail, souvent soutenue par l’intelligence artificielle, tant dans l’conomie du travail l’aide de platesformes communes que dans les systmes bureautiques classiques. Les diffrentes tendances ncessitent des rponses spcifiques, souligne l’auteur du rapport, Kirstie Ball, professeur l’cole de gestion de l’universit de St Andrews.
Les tests mens par le mtro de Londres visaient galement dterminer si l’IA pouvait dtecter les vlos dplis ou non et les scooters lectriques, qui sont en grande partie interdits sur le rseau de transport. L’IA n’a pas pu faire la diffrence entre un vlo dpli et un vlo normal, ni entre un scooter lectrique et un scooter pour enfants , indiquent les documents. Le modle d’vasion tarifaire a galement repr les enfants. Pendant les heures de transport scolaire, nous observions un pic d’alertes de talonnage de parents et d’enfants , indiquent les documents. Le systme a t ajust pour ne pas signaler les personnes dont la taille est infrieure la barrire .
En 2020, la police de Londres a dvoil son projet de dploiement de camras de reconnaissance faciale dans toute la ville, suscitant des proccupations parmi les dfenseurs de la vie prive qui ont qualifi cette initiative de menace srieuse pour les liberts individuelles. Cette dcision faisait suite une srie de tests lancs par la police du Royaume-Uni en 2017, mettant en uvre des camras dotes d’un systme d’intelligence artificielle (IA) appel AFR Locate pour la reconnaissance faciale en temps rel.
Initialement teste dans la rgion de South Wales, cette technologie a montr des lacunes ds le dbut des essais, avec un taux lev de faux positifs atteignant 98 %. Le systme utilise un croisement entre les images en temps rel et celles stockes dans une base de donnes de personnes recherches pour gnrer des alertes en cas de correspondance. Cependant, en raison des dficiences observes, aucune arrestation n’a pu tre effectue sur la base de ces alertes.
Face ces insuffisances, les autorits ont collabor avec la socit technologique japonaise NEC pour amliorer l’algorithme sous-jacent l’IA. Aprs 12 mois de recherche, NEC a fourni un nouvel algorithme et une nouvelle application, rduisant considrablement le taux de faux positifs. Entre 2017 et 2018, cette amlioration a conduit l’arrestation de 450 personnes.
Suite ces rsultats jugs concluants, la police britannique, notamment le Service de Police Mtropolitain de Londres (Met), annonce l’introduction de la technologie de reconnaissance faciale en temps rel (LFR) dans des endroits spcifiques de Londres. Cette initiative vise lutter contre des dlits graves, tels que la violence, l’utilisation d’armes feu et couteaux, l’exploitation sexuelle des enfants, ainsi qu’ protger les personnes vulnrables.
Le commissaire adjoint Nick Ephgrave souligne l’importance de cette avance dans la lutte contre la violence, soulignant que des technologies similaires sont dj largement utilises dans le secteur priv au Royaume-Uni et qu’elles ont t testes spcifiquement pour une utilisation oprationnelle par les quipes technologiques de la police.
Les risques soulevs par les experts en vie prive
La combinaison de l’IA avec des images de vidosurveillance en direct a gnr plus de 44 000 alertes signalant divers comportements, allant de l’agressivit aux fraudes tarifaires. Ces rsultats soulvent des questions sur la fiabilit du systme, mettant en vidence des erreurs susceptibles d’avoir des consquences importantes.
Bien que l’objectif de l’essai soit d’amliorer la scurit, il est crucial de prendre en compte les erreurs du systme et de mettre en place des rglementations strictes ainsi que des consultations publiques transparentes avant de dployer de telles technologies dans des espaces publics. La ncessit d’un quilibre entre la scurit publique et la protection de la vie prive est cruciale, et des experts soulignent l’importance d’une approche rglementaire pour garantir que ces technologies ne compromettent pas les droits fondamentaux des citoyens.
L’exprience souligne galement la ncessit d’une surveillance et d’une valuation constantes des systmes d’IA pour minimiser les erreurs et les biais, tout en informant le public sur la manire dont ces technologies sont utilises et rglementes. L’opinion critique exprime par Madeleine Stone, une responsable plaidoyer au sein du groupe Big Brother Watch ax sur la protection de la vie prive, soulve des proccupations lgitimes quant l’utilisation de la surveillance alimente par l’IA dans le mtro.
Stone met en avant le fait que de nombreux voyageurs du mtro seront drangs en apprenant que les autorits les soumettent une surveillance alimente par l’IA. Elle souligne galement que l’utilisation d’un algorithme pour dterminer si quelqu’un est agressif est profondment dfectueuse et met en lumire le fait que le rgulateur britannique des donnes a averti contre l’utilisation des technologies d’analyse des motions.
Cette critique met en vidence une srie de proccupations fondamentales, notamment le potentiel de violation de la vie prive, les erreurs possibles de l’algorithme dans l’valuation du comportement humain, et le non-respect des avertissements des rgulateurs de donnes. L’objection l’utilisation de technologies d’analyse des motions est particulirement pertinente et souligne les risques de dcisions automatises bases sur des interprtations potentiellement biaises ou inexactes des motions humaines.
Sources : Documents rendus publics, TfL
Et vous ?
Quel est votre avis sur le sujet ?
tes-vous pour contre une consultation publique avant le dploiement de ces technologies ?
Quelle est votre position vis–vis de l’usage des outils de surveillance IA en temps rel dans la dtection des dlits ? tes-vous en faveur ou oppos cette pratique ?
Voir aussi :