Le droit de ne pas tre soumis au profilage par l’IA bas sur des donnes publiquement disponibles sans consentement clair explicite, car le rglement RGPD de l’UE ne garantit pas ce droit

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Dans un article, il est soutenu que les individus devraient avoir un droit sui generis de ne pas tre soumis un profilage par IA bas sur des donnes accessibles au public sans leur consentement explicite et clair.

Les donnes des mdias sociaux offrent un potentiel considrable pour prdire les conditions lies la sant. Des tudes rcentes suggrent que des modles d’apprentissage automatique peuvent prdire avec prcision la dpression et d’autres problmes de sant mentale partir de photos Instagram et de tweets.

Un article a tay le droit de ne pas tre soumis un profilage d’IA bas sur des donnes accessibles au public. Ce droit implique qu’un tel profilage ne peut tre effectu sans le consentement explicite et inform du sujet profil. L’article dveloppe trois arguments fondamentaux en faveur d’un droit la protection des donnes caractre personnel reposant sur les notions de contrle social et de stigmatisation.

Il affirme qu’un certain nombre de caractristiques du profilage par IA rendent les individus plus exposs au contrle social et la stigmatisation que d’autres types de traitement de donnes (l’exceptionnalit du profilage par IA). L’article examine galement une srie d’autres arguments pour et contre la protection des individus contre le profilage par IA bas sur des donnes accessibles au public.

Enfin, il y est affirm que le rglement gnral sur la protection des donnes de l’UE (RGPD) ne garantit pas que les individus ont le droit de ne pas faire l’objet d’un profilage par IA bas sur des donnes accessibles au public. Mais l’argumentation dveloppe dans l’article soulve plusieurs questions qui mritent d’tre approfondies.

Pourquoi un droit ?

Mme si l’on reconnat la gravit des prjudices potentiels du profilage de l’IA, la question de savoir si ces prjudices doivent tre traits par le biais d’un droit ou d’un autre type de rglementation interdisant ce profilage d’une manire ou d’une autre peut encore tre considre comme ouverte. Le droit de ne pas faire l’objet d’un profilage d’IA sans consentement clair peut tre considr comme dcoulant du droit d’un individu protger ses intrts et son droit se protger contre les prjudices.

Il convient toutefois de noter qu’un tel droit dmocratise en quelque sorte la rglementation. Il ne limite pas la rglementation de l’IA des institutions et des professions dsignes, dotes de la comptence et de l’obligation de surveiller et de contrler le dveloppement et l’utilisation de l’IA, mais il donne chaque individu un instrument de contrle de l’utilisation de l’IA. Ce faisant, un droit peut accrotre l’efficacit de la rglementation par rapport d’autres types de rglementation. Cet argument ne peut tre pleinement dvelopp dans un simple article, mais il devrait tre explor dans des travaux futurs.

Pourquoi un droit pro tanto ?

Dans l’article, le droit de ne pas faire l’objet d’un profilage par IA a t suggr comme un droit conditionnel. Pourtant, les exemptions potentielles ce droit n’ont pas t prcises. Au contraire, il a t avanc que certaines des exceptions videntes, par exemple la libert d’expression et d’information, ne constituent pas des exceptions raisonnables. Cette question mrite galement d’tre approfondie.

La raison de ce choix est double. Dans l’article, les auteurs n’ont aucun moment soutenu qu’il n’y avait pas d’exceptions ce droit. Par ailleurs, il semble qu’il soit toujours possible de concevoir des situations constituant des exceptions ces droits. Par exemple, les menaces pour la scurit nationale ou les menaces terroristes pourraient tre des candidats l’laboration de telles exemptions.

Pourquoi le consentement clair ?

Le droit de ne pas faire l’objet d’un profil d’IA peut tre abandonn par le biais d’un consentement clair. Certains objecteront que le consentement clair au traitement des donnes est trs routinier, c’est–dire qu’il s’agit d’un acte habituel et non rflchi, et que le droit de ne pas faire l’objet d’un profilage par l’IA peut par consquent ne pas avoir de rel pouvoir de protection des personnes. La mesure dans laquelle les problmes de routinisation peuvent tre surmonts grce une conception minutieuse de la situation de consentement est une question qui devra faire l’objet de travaux (empiriques) futurs.

La position adopte dans l’article est que l’valuation des avantages et des inconvnients potentiels du profilage par l’IA ne peut se faire de manire adquate sur le plan thique sans la participation des personnes susceptibles d’tre profiles. La lgitimit de soumettre des individus au profilage par l’IA dcoule au moins en partie de leur implication dans la dcision de procder au profilage. ce titre, le consentement clair est tout simplement ncessaire d’un point de vue thique.

L’exigence de consentement clair peut ne pas suffire protger les individus des inconvnients potentiels du profilage par l’IA. D’autres types de rglementation protgeant les individus contre de tels prjudices peuvent certainement tre ncessaires. Notamment, comme certains l’ont affirm, parce que l’obligation de consentement clair peut constituer un fardeau pour les individus.

Conclusion

Dans le cadre de la justification d’un droit sui generis ne pas tre profil par l’IA sur la base de donnes accessibles au public, l’article suggre plusieurs mcanismes et modles comportementaux qui sous-tendent le contrle social et la stigmatisation, et fourni des preuves pertinentes dans la mesure des possibilits. D’autres tudes empiriques sur ces questions sont ncessaires. Il convient toutefois de noter qu’en tentant de fonder ces arguments sur des modles et mcanismes comportementaux rels, l’article constitue une contribution l’laboration de politiques fondes sur des donnes probantes dans le domaine du droit la vie prive.

Source : « The Right Not to Be Subjected to AI Profiling Based on Publicly Available DataPrivacy and the Exceptionalism of AI Profiling »

Et vous ?

Pensez-vous que cet article de recherche est crdible ou pertinent ?

Quel est votre avis sur le sujet ?

Voir aussi :

L’ONU avertit que l’IA peut menacer les droits de l’homme, le rapport met en garde contre l’utilisation de l’IA en tant qu’outil de prvision et de profilage

Les lgislateurs europens adoptent la premire loi importante pour rglementer l’IA dans le monde, mais elle pourrait potentiellement rendre le march europen peu attrayant pour l’IA

Meta prvoit d’utiliser vos donnes personnelles pour entraner ses modles d’IA sans demander de consentement, mais le groupe de dfense NOYB demande aux autorits de l’Europe d’y mettre un terme



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.