Alors que les géants de l’intelligence artificielle (IA) promettent des assistants virtuels toujours plus perfectionnés, un des risques posés par l’expansion de cette technologie est peu mis en lumière : l’IA ouvre aussi des portes pour la surveillance. Si le numérique permet déjà d’analyser et de détecter des comportements humains à des fins policières, professionnelles ou commerciales, les avancées récentes dans le traitement du texte, du son et de l’image pourraient étendre ces capacités.
L’application la plus évidente est la vidéosurveillance « intelligente », qui propose d’utiliser l’IA pour analyser le contenu des images des caméras, notamment pour identifier des personnes grâce à la reconnaissance faciale − une technique assez répandue en Chine. Le récent règlement AI Act a interdit, dans l’Union européenne, une telle « identification biométrique à distance en temps réel dans les espaces accessibles au public ». Tout en autorisant son usage par les forces de l’ordre, à certaines conditions, pour « la prévention de menaces réelles, actuelles ou prévisibles, telles que les attentats terroristes et la recherche de personnes soupçonnées des crimes les plus graves ». L’usage a posteriori est possible, sous conditions.
L’ONG Amnesty International a regretté « l’occasion manquée » d’une interdiction totale. L’association La Quadrature du Net déplore, elle, des premiers tests en France de vidéosurveillance algorithmique, autorisés par la loi sur les Jeux olympiques adoptée en mars 2023 : sans reconnaissance faciale, ceux-ci ont visé à détecter des mouvements jugés problématiques, dans les transports en commun, à l’occasion d’un concert ou d’un match de football. L’association craint une avancée « à petits pas ». Pour ses partisans, l’IA lève un obstacle majeur de la vidéosurveillance : la difficulté de faire analyser de très grandes quantités d’images par des humains. Pour ses détracteurs, elle est liberticide mais aussi source d’erreurs et de biais.
Les possibilités ne s’arrêtent pas à ces domaines très débattus. D’apparence anodine, une des fonctionnalités présentées le 14 mai par Google a fait réagir des défenseurs de la vie privée : celle-ci propose d’envoyer une alerte à l’utilisateur d’un téléphone Android s’il reçoit un appel susceptible, selon l’IA, d’être une arnaque. « C’est incroyablement dangereux », a tweeté Meredith Whittaker, directrice générale de la messagerie chiffrée Signal. Selon elle, scanner ainsi les conversations téléphoniques pourrait, à terme, être utilisé par des Etats pour détecter tous types de comportements jugés illégaux. Pour rassurer, Google a rappelé que les conversations étaient analysées sur le téléphone de l’utilisateur et que ce dernier devait consentir – « opt in » – pour utiliser ce service.
Il vous reste 35.14% de cet article à lire. La suite est réservée aux abonnés.