Apple revient sur son projet controversé de détection des photos pédopornographiques dans les iPhone des utilisateurs. Une initiative finalement abandonnée en fin d’année dernière.
En décembre dernier, Apple mettait discrètement fin à son projet de détection des photos à caractère pédopornographique à même la bibliothèque iCloud des utilisateurs. À l’époque, le constructeur s’était simplement fendu d’une déclaration envoyée à la presse US, dans laquelle l’entreprise assurait que les enfants pouvaient être protégés sans que des sociétés épluchent les données personnelles.
Lire Apple met fin à son projet controversé de lutte contre la pédopornographie
Le sujet revient sur le tapis par le biais d’un échange de courriers entre Apple et l’organisation Heat Initiative, qui veut justement pousser le constructeur à « détecter, signaler et retirer » d’iCloud les contenus pédopornographiques (CSAM pour Child Sexual Abuse Material). Erik Neuenschwander, le directeur de la confidentialité et de la sécurité des enfants chez Apple, y explique pourquoi l’entreprise a finalement abandonné l’examen des bibliothèques de photos iCloud.
« La surveillance des données iCloud stockées en local par chaque utilisateur créerait de nouveaux vecteurs d’attaque que les pirates pourraient exploiter », précise-t-il avant de décrire la possibilité de « conséquences imprévues » : « La recherche d’un type de contenu pourrait ouvrir la porte à une surveillance de masse en créant un appel d’air pour fouiller d’autres systèmes de messageries à la recherche de différents types de contenus ».
La détection des photos CSAM telle qu’imaginée par Apple passait par un scan de la bibliothèque photo en local, directement sur l’iPhone. Pour résumer, les images devaient être comparées à une base de données de photos pédopornographiques en utilisant des algorithmes IA. En cas de correspondance, un second examen était réalisé sur les serveurs d’Apple, avant qu’une enquête manuelle et humaine soit réalisée pour écarter les faux positifs.
Apple avait annoncé cette nouveauté en août 2021, visiblement sans avoir pensé une seconde aux conséquences qu’une telle technologie impliquait pour la surveillance généralisée des utilisateurs. Très rapidement, des spécialistes et des experts ont pointé les dangers de ce système, et ce n’est qu’après de longs mois de réflexion que l’entreprise a abandonné l’idée.
Apple met désormais en avant l’ensemble de fonctions regroupées sous le nom Communication Safety, qui détecte — toujours en local sur l’appareil — la nudité dans FaceTime, Messages, AirDrop et le sélecteur Photos. Une API permet aux développeurs d’intégrer cette technologie (Discord est d’ailleurs en train de l’implémenter).
Neuenschwander conclut en confirmant que l’approche hybride pour la détection de photos CSAM ne pouvait pas être intégrée dans la pratique, sans mettre en péril la sécurité et la confidentialité des utilisateurs.
Source :
Wired