La société de Tim Cook est attaquée en justice aux Etats-Unis pour ne pas avoir identifié et supprimé les contenus pédopornographiques sur iCloud. Des victimes d’abus sexuels dont les agressions sexuelles ont été diffusées sur le service de stockage d’Apple réclament des dommages et intérêts salés, qui pourraient aller jusqu’à 1,2 milliard d’euros.
Apple est attaquée en justice aux États-Unis sur le terrain de la pédocriminalité. La marque à la pomme est accusée de ne pas avoir protégé les victimes mineures d’abus sexuels, à savoir des agressions sexuelles et des viols. La plainte a été déposée samedi 7 décembre devant le tribunal de district de Californie du Nord. Le groupe de Tim Cook aurait mis sur le marché un produit défectueux (son service de stockage iCloud) qui porterait préjudice à une catégorie de clients, les enfants victimes d’abus sexuels, apprend-on dans la plainte dont le New York Times se fait l’écho.
Car si la société de Cupertino a créé un système de détection de contenus pédopornographiques dont elle a largement fait la publicité, elle ne l’a jamais mis en œuvre, regrettent les auteurs de la plainte. Ces derniers demandent donc à Apple de changer son fusil d’épaule, et de dédommager un groupe potentiel de 2 680 victimes, selon l’un des avocats impliqués dans cette affaire, interrogé par nos confrères. Les dommages et intérêts pourraient dépasser 1,2 milliard de dollars, si le tribunal donne raison aux plaignants.
Cette affaire vient ajouter une pierre au débat actuel qui oppose la protection de la vie privée et la protection des mineurs. Depuis l’avènement du Web, les géants du numérique comme Google (YouTube), Apple ou encore Meta (Facebook, WhatsApp) ne sont pas responsables des contenus postés ou stockés par leurs utilisateurs.
Apple privilégie la vie privée de ses utilisateurs
Mais depuis plusieurs années, ce principe est remis en question pour différentes raisons : la lutte contre le terrorisme (notamment pour les messageries chiffrées), le risque de manipulation via les algorithmes et les dark pattern, et la lutte contre la pédocriminalité.
Si certaines régions ont adopté des lois visant à rendre ces plateformes responsables dans certains cas des contenus qu’elles diffusent, comme en Europe avec le DMA et peut-être bientôt le projet de règlement CSAR (ou « Chat control » pour ses opposants, soit contrôle des conversations en français), ce n’est pas le cas des États-Unis. Le pays n’a pas pour l’instant fondamentalement changé son droit, même si les lignes ont commencé à bouger dans les années 2010.
À lire aussi : WhatsApp : vos conversations privées bientôt espionnées par l’Europe ?
À l’époque, un logiciel permettant de détecter des photos illégales (comme des contenus pédopornographiques) est créé, « PhotoDNA ». Si cet outil a fini par être adopté par Google (YouTube) et Meta (Facebook, Instagram, WhatsApp), il a été mis de côté par Apple qui a toujours prôné la primauté de la vie privée de ses utilisateurs. Ce n’est qu’après une enquête du New York Times de 2019, qui montrait qu’Apple était le géant du numérique qui signalait le moins les contenus pédopornographiques, que le groupe décide d’agir.
Le risque de surveillance généralisée
En 2020, l’entreprise de Cupertino travaille sur un système qui lui permet de détecter des images pédopornographiques. Mais elle décide finalement d’abandonner cet outil, notamment après l’alerte d’experts en cybersécurité.
À lire aussi : Apple explique l’abandon de son projet de détection de photos pédopornographiques
Ces derniers expliquent en effet qu’un tel système permettrait de créer une porte dérobée sur les iPhones, permettant aux gouvernements d’y accéder. Face à ce risque de surveillance généralisée, l’entreprise rétrograde. Elle explique qu’il est pratiquement impossible de scanner les photos iCloud sans « mettre en péril la sécurité et la vie privée de nos utilisateurs ».
Un argument repris en Europe par d’autres organisations critiquant le projet de règlementation européenne CSAR. Ce texte obligerait les réseaux sociaux et les plateformes à scanner tous les messages pour détecter des contenus pédopornographiques : une technologie liberticide qui pourrait sonner le glas de la liberté d’expression en ligne.
À lire aussi : Imposer la détection de contenus pédopornographiques serait aussi inefficace que nuisible, selon des experts
Apple estime qu’elle n’est pas responsable des contenus stockés sur iCloud
Mais pour une des victimes d’abus sexuels qui fait partie de l’action en justice américaine, Apple n’a tout simplement pas respecté « sa promesse de protéger les victimes d’agressions sexuelles » dont les images circulent sur iCloud. Au lieu d’utiliser les outils qu’Apple avait créés pour identifier, supprimer et signaler ce type d’images, elle a au contraire permis à ces dernières d’être diffusées, plaide-t-elle.
Ce n’est pas la première fois qu’Apple est attaqué pour ce sujet, mais cette fois, la plainte pourrait avoir une portée et un impact importants, expliquent nos confrères. Car si, depuis des années, Apple prône la défense de la vie privée de ses utilisateurs, sa stratégie est de plus en plus critiquée. D’autant que ces derniers mois, des décisions de justice récentes ont rendu, outre Atlantique, les plateformes responsables des publications ou des messages de leurs utilisateurs dans certaines situations, expliquent nos confrères.
Après l’annonce de l’action en justice, Apple a répondu qu’elle n’était pas responsable des contenus stockés sur iCloud par ses utilisateurs. L’entreprise américaine estime qu’elle ne peut pas faire l’objet d’une action en responsabilité du fait des produits puisqu’iCloud ne serait pas un produit au sens de la loi américaine. Pour Fred Sainz, porte-parole d’Apple, « les contenus pédopornographiques sont odieux et nous nous engageons à lutter contre la façon dont les prédateurs les diffusent. Nous innovons de toute urgence et activement pour lutter contre ces crimes sans compromettre la sécurité et la vie privée de tous nos utilisateurs ».
Le débat aussi vif en Europe
Si l’issue de cette action en justice pourrait changer la donne dans le pays, le débat entre vie privée et protection des mineurs est aussi vif en Europe. Sur le Vieux continent, le projet de règlementation européen CSAM (pour Child Sexual Abuse Material) prévoit d’imposer aux plateformes numériques, y compris les messageries chiffrées, la détection et la suppression de contenus pédopornographiques.
De quoi mettre vent debout les experts en cybersécurité et les associations ou organisations défendant la vie privée en ligne, qui expliquent là aussi qu’obliger à une telle détection reviendrait à surveiller tous les contenus échangés via des applications ou sur le Web. Ce qui mettrait, selon ces dernières, fin à la vie privée et au secret de la correspondance en ligne.
Il n’existe pour l’instant pas de consensus sur le texte : vendredi 6 décembre, les 27 pays de l’Union européenne ne sont pas parvenus à s’accorder sur une seule et même position. Selon Contexte ce lundi 9 décembre, la prochaine réunion aura lieu à Bruxelles le 12 décembre prochain.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.