Apple met fin à son projet controversé de lutte contre la pédopornographie

Apple continue sa lutte contre la pédopornographie, différemment.


Après plus d’un an de réflexion et d’atermoiements, Apple vient de mettre un terme à un projet qui voulait lutter contre la diffusion des contenus pédopornographiques, mais qui menaçait les libertés essentielles. Le géant américain emprunte désormais une autre voie, plus en amont.

L’Enfer est pavé de bonnes intentions, et le combat contre la criminalité, en l’occurrence la pédocriminalité, également.

En août 2021, Apple annonçait son intention de mettre en place un système de surveillance permettant de lutter contre la diffusion de contenus pédopornographiques (CSAM, en anglais, pour Child Sexual Abuse Material). Pour cela, tout en indiquant préserver la vie privée des utilisateurs, il entendait analyser les photos que vous prenez ou recevez, en appliquant des filtres contrôlés par des algorithmes d’intelligence artificielle.

Si la motivation était louable, le risque de glisser dans nos iPhone un outil de surveillance semblait trop grand. Au point que de nombreux experts en cybersécurité et de nombreuses associations de défense des libertés individuelles avaient tiré la sonnette d’alarme. L’Electronic Frontier Foundation craignait ainsi, à l’époque, qu’Apple crée « une infractructure qu’il serait trop facile de rediriger pour en faire un outil de surveillance ou de censure. » Un mois plus tard à peine, en septembre, le géant de Cupertino annonçait officiellement mettre en pause le développement de son outil pour « prendre plus de temps au cours des prochains mois pour récolter des retours et réaliser des améliorations ».

La fin d’un projet controversé

Depuis, au cours de cette phase de collecte de réactions et avis, le projet s’était fait discret. Jusqu’à hier. En plus d’annoncer la mise en place prochaine du chiffrement de bout en bout des sauvegardes dans iCloud, Apple vient en effet d’officialiser l’abandon pur et simple de ce projet.

Dans un communiqué fourni à nos confrères de Wired, le géant américain explique : « Nous avons décidé de ne pas continuer nos travaux sur notre outil de détection de CSAM pour iCloud Photos. Les enfants peuvent être protégés sans que des sociétés épluchent les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants, et les autres sociétés pour aider à protéger les jeunes, à préserver leur vie privée, et faire d’Internet un endroit plus sûr pour les enfants et nous tous. »

Une nouvelle voie… aux sources

Apple ne délaisse pas pour autant son combat contre la pédopornographie et les abus sexuels. Il va ainsi se concentrer sur son outil de Sécurité des communications. Une fonction lancée en décembre 2021 aux États-Unis et embarquée dans iOS 16 en France et en Allemagne depuis septembre dernier.

Cet outil permet aux parents ou responsables légaux d’un enfant d’activer la protection du smartphone d’un mineur dont le compte iCloud est lié à la famille de l’utilisateur. Cette fonction permet de contrôler les contenus reçus, envoyés ou consultés depuis Siri, Spotlight et la recherche Safari, et, bien entendu, dans Messages. Apple envisage donc non plus d’agir a posteriori, mais d’empêcher la production de contenu quand il le peut – quand un adulte mal intentionné incite un enfant à envoyer des photos de lui – et de limiter l’exposition autant que possible.

Apple confiait également à Wired continuer à travailler au déploiement des fonctions de Sécurité de communications dans d’autres pays. Les ingénieurs du géant américain font aussi en sorte de pouvoir enrichir cet outil de nouvelles fonctions. Ainsi, une solution de détection de nudité dans des vidéos envoyées par Messages devrait être intégrée prochainement. Mais Apple voit plus loin encore et souhaiterait que ses outils puissent être intégrés par des développeurs tiers dans leurs applications. Ainsi, les enfants seraient alertés des risques pris et protégés de manière plus étendue. Une solution respectueuse de la vie privée et qui éviterait aux plus jeunes les abus de prédateurs sexuels. Une bonne intention, sans enfer…

Source :

Wired



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.