ce logiciel n’arrivait pas à prédire les crimes dans 99 % des cas

Police prédictive


Un logiciel de police prédictive qui n’arrive pas à prédire les crimes et délits : c’est ce que montre cette enquête de TheMarkup, à propos de Geolitica (plus connu sous le nom de PredPol) acquis par la police de Plainfield, une petite ville du New Jersey aux États-Unis.

Sur le papier, « Geolitica » (anciennement « PredPol ») était un logiciel qui se rapprochait de celui de Minority Report, capable de prédire des crimes avant qu’ils ne soient commis. En 2018, le service de police de Plainfield, dans le New Jersey, pense qu’il pourrait réduire la criminalité dans cette petite ville de 54 000 habitants. De quoi convaincre les forces de l’ordre d’acquérir ce logiciel, raconte TheMarkup le 2 octobre dernier. Le software est censé générer des prédictions quotidiennes sur les lieux et les heures où les vols, agressions graves ou cambriolages sont les plus susceptibles de se produire. Avec efficacité ? Cinq ans plus tard, TheMarkUp et Wired se sont posés la question. En analysant un jeu de données datant de 2018, ils en ont conclu que ce logiciel n’arrivait tout simplement pas à prédire les crimes.

Ce dernier se serait avéré juste dans moins de 1 % des cas. Pour aboutir à ce résultat, nos confrères ont passé au crible 23 631 prédictions générées par Geolitica entre le 25 février et le 18 décembre 2018. Le logiciel était supposé indiquer que tel type de délit ou crime pouvait se produire dans tel quartier de la ville. Et quasi systématiquement, il se trompait – le taux de réussite n’atteignant difficilement que les 0,4 %. Sur la totalité des prédictions générées pendant cette période précise, seule une centaine serait tombée dans le mille : les délits ou crimes ont été effectivement commis pour ces quelques cas.

À lire aussi : Comment la police de Londres utilise l’analyse des données pour arrêter les criminels les plus dangereux de la ville

Des policiers bloqués des heures entières

À l’origine, explique à nos confrères le capitaine David Guarino à nos confrères, « nous voulions être plus efficaces. Et le fait de pouvoir prédire où nous devrions être aurait pu nous aider. Je ne sais pas si cela a été le cas », concède-t-il. Le policier a ensuite confessé que ses équipes ne l’avaient pas utilisé très souvent, avant de le mettre totalement de côté. Le fonctionnement même du logiciel posait problème. La prédiction prévoyait par exemple un délit à tel endroit, sur une plage horaire… d’une journée. Ce qui imposait aux équipes de stationner des heures entières. Pour Andrew Ferguson, professeur de droit à l’université américaine (Washington, D.C.) et auteur du livre L’essor de la police des données, le système devait se présenter comme « un moyen d’avoir des policiers au bon moment, et au bon endroit ». Et pas de les bloquer pendant plusieurs heures.

Contacté, Geolitica n’a pas souhaité répondre à nos confrères. La société serait en train d’être rachetée, en partie, par SoundThinking, une entreprise qui voudrait devenir le Google de la lutte contre la criminalité, rapporte Wired, le 27 septembre dernier. Mais la technologie ou le code source de prédiction du crime de Geolitica ne ferait pas partie de la cession, selon TheMarkup

Pour Sam Klepper, vice-président principal de SoundThinking interrogé par nos confrères, « la possibilité de déployer les ressources limitées en personnel (des forces de l’ordr) présente un grand intérêt ». Cette société proposerait un système similaire, dont l’efficacité n’a pas été mesurée.

À lire aussi : Comment fonctionne Fog Reveal, l’outil de surveillance de la police américaine

« Les outils vendus aux services de police sont peu fiables »

Ce n’est pas la première fois que ce logiciel est épinglé par des enquêtes. En 2021, The Markup et Gizmodo avaient montré que le software avait tendance à cibler de manière disproportionnée les quartiers à faibles revenus, où les communautés noires et latinos sont majoritaires, dans 38 villes du pays. Nos confrères avaient eu accès à des données accessibles (par erreur) sur un serveur non protégé. Sur ce dernier étaient stockées des prévisions que Geolitica avait fournies aux services de police de dizaines de villes du pays pendant près de trois ans.

Seul le service de police de Plainfield avait accepté de partager des informations avec nos confrères, ce qui leur a permis de confronter les prédictions aux crimes et délits signalés – ce qui ne comprend pas forcément la totalité des infractions commises. Selon le Bureau des statistiques de la justice, moins de la moitié des crimes violents et des crimes contre les biens ont été signalés à la police en 2022.

L’absence d’efficacité de ce type de logiciel n’étonne guère Dillon Reisman, avocat au sein de l’Union américaine pour les libertés civiles du New Jersey.  « Cela montre à quel point les outils vendus aux services de police sont peu fiables. Dans tout le New Jersey, il y a beaucoup d’entreprises qui vendent des outils qui n’ont pas fait leurs preuves, qui n’ont pas été testés et qui promettent de répondre à tous les besoins des forces de l’ordre, mais qui, en fin de compte, ne font qu’aggraver les inégalités dans le maintien de l’ordre, sans aucun bénéfice pour la sécurité publique », déplore-t-il auprès de nos confrères de TheMarkup.

Pour l’association Electronic Frontier Foundation (EFF), qui appelle interdire la police prédictive, et à ne plus utiliser les logiciels de Soundthinking, les algorithmes ne peuvent pas prédire la criminalité. L’ONG déplore dans un communiqué que « cette fausse promesse crée l’illusion que les services de police qui achètent des technologies de police prédictive sont proactifs dans leur lutte contre la criminalité ».

À lire aussi : Reconnaissance faciale : comment « l’œil de Moscou » est utilisé pour traquer les opposants à la guerre en Ukraine

Pour d’autres, c’est surtout l’absence de débat sur le recours à cette technologie qui pose problème. Des services de police et des entreprises font appel à ce type de technologie. Mais « sommes-nous d’accord pour céder (à des entreprises technologiques, ndlr) autant de contrôle sur la sécurité publique ? », s’interroge Andrew Ferguson, dans les colonnes de Wired.

Source :

TheMarkUp



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.