La plupart des fournisseurs d’IA améliorent leurs produits en les formant à l’aide d’informations publiques et de données d’utilisateurs.
Toutefois, cette dernière méthode place une entreprise soucieuse de la protection de la vie privée comme Apple dans une position délicate.
Comment peut-elle améliorer sa technologie Apple Intelligence sans compromettre la vie privée de ses utilisateurs ? C’est un défi difficile à relever, mais l’entreprise pense avoir trouvé une solution.
Données synthétiques et données réelles
OpenAI, Google, Microsoft et Meta forment leurs produits en partie en analysant vos conversations. L’objectif est d’améliorer la fiabilité et la précision de leurs IA en récupérant des données issues de conversations réelles. Bien que vous puissiez refuser ce type de partage de données, la procédure à suivre varie d’un produit à l’autre. C’est donc à vous qu’il incombe de trouver le moyen de couper la connexion.
Apple s’est toujours targué d’être plus soucieux de la protection de la vie privée que ses rivaux. À cette fin, l’entreprise s’est appuyée sur ce que l’on appelle les données synthétiques pour former et améliorer ses produits d’intelligence artificielle. Créées à l’aide du modèle de langage large (LLM) d’Apple, les données synthétiques tentent d’imiter l’essence des données réelles.
Par exemple, l’IA peut créer un courriel synthétique dont le sujet et le style sont similaires à ceux d’un message réel. L’objectif est d’apprendre à l’IA à résumer ce courriel, une fonction déjà intégrée à Apple Mail.
La solution d’Apple : la « confidentialité différentielle »
Le problème des données synthétiques est qu’elles ne peuvent pas reproduire la touche humaine particulière que l’on trouve dans le contenu réel. Cette limitation a conduit Apple à adopter une approche différente, connue sous le nom de « confidentialité différentielle ». Comme le décrit Apple dans un billet de blog publié lundi, la confidentialité différentielle associe des données synthétiques à des données réelles. Voici comment cela fonctionne.
Supposons qu’Apple veuille apprendre à son IA à résumer un courriel. L’entreprise commence par créer un grand nombre de courriels synthétiques sur différents sujets. Apple génère ensuite un embedding pour chaque message synthétique afin de capturer des éléments clés tels que la langue, le sujet et la longueur. Ces données intégrées sont envoyées aux utilisateurs d’Apple qui ont opté pour le partage d’analyses sur leurs appareils.
Chaque appareil sélectionne un petit échantillon de courriels d’utilisateurs réels et génère ses propres messages. L’appareil détermine ensuite quels enregistrements synthétiques correspondent le mieux à la langue, au sujet et à d’autres caractéristiques des courriels de l’utilisateur. Grâce à la protection différentielle de la vie privée, Apple identifie les enregistrements synthétiques les plus similaires. À l’étape suivante, l’entreprise peut conserver ces échantillons pour affiner davantage les données ou commencer à les utiliser pour entraîner son IA.
À titre d’exemple fourni par Apple, imaginons qu’un courrier électronique sur la pratique du tennis soit sélectionné. Un message similaire est généré en remplaçant « tennis » par « football » ou un autre sport et ajouté à la liste pour la curation ou l’entraînement. La modification du sujet et d’autres éléments de chaque courriel permet à l’IA d’apprendre à créer de meilleurs résumés pour une plus grande variété de messages.
Comment Apple protège-t-elle la vie privée ?
Si vous vous demandez comment ce processus protège réellement votre vie privée, sachez que le partage des données d’analyse des appareils est désactivé par défaut. De sorte que seules les personnes qui le souhaitent sont impliquées dans l’apprentissage des données.
Vous pouvez facilement consulter, accepter ou refuser le partage sur n’importe quel appareil Apple.
- Allez dans Réglages (Réglages système sur un Mac)
- Sélectionnez Confidentialité et sécurité
- Faites défiler l’écran jusqu’en bas et touchez le paramètre Analytique et améliorations
- Le nom et la description de chaque option s’affichent alors, ce qui vous permet de choisir les données que vous souhaitez partager, le cas échéant
L’ensemble des options sera disponible avec iOS/iPadOS 18.5 et MacOS 15.5.
Apple a déjà utilisé la confidentialité différentielle pour sa fonction Genmoji
En outre, les données des courriels des utilisateurs échantillonnés ne quittent jamais l’appareil et ne sont jamais partagées avec Apple. L’appareil d’une personne qui a opté pour le partage des données analytiques envoie un signal à l’entreprise indiquant les courriels synthétiques qui se rapprochent le plus des courriels réels de l’utilisateur. Toutefois, ce signal ne fait pas référence à une adresse IP, à un compte Apple ou à toute autre donnée associée à l’utilisateur.
Apple a déjà utilisé la confidentialité différentielle pour sa fonction Genmoji, qui utilise l’IA pour créer des emoji personnalisés à partir de vos descriptions. Dans ce cas, la société a été en mesure d’identifier les messages et les modèles populaires sans les relier à des utilisateurs spécifiques. À l’avenir, Apple a déclaré prévoir d’étendre l’utilisation de la confidentialité différentielle à d’autres fonctionnalités d’IA, notamment Image Playground, Image Wand, Création de souvenirs, Outils d’écriture et Intelligence visuelle.
« En nous appuyant sur nos nombreuses années d’expérience dans l’utilisation de techniques telles que la confidentialité différentielle, ainsi que sur de nouvelles techniques telles que la génération de données synthétiques, nous sommes en mesure d’améliorer les fonctionnalités d’Apple Intelligence tout en protégeant la vie privée des utilisateurs qui acceptent le programme d’analyse de l’appareil », a déclaré Apple dans son billet de blog. « Ces techniques permettent à Apple de comprendre les tendances générales sans apprendre d’informations sur les individus, telles que les pormpts qu’ils utilisent ou le contenu de leurs courriels ».