Les « droits de l’Homme de l’IA » sont en train d’être négociés, vous devriez vous y intéresser

Conseil de l'Europe


C’est un texte sur l’intelligence artificielle qui a pour l’instant été éclipsé de la scène par « l’AI Act », le règlement européen sur l’IA, mais qui devrait mériter toute notre attention. Le 14 mars dernier, la cinquantaine de pays qui s’était réunie à Strasbourg pour discuter de la « Convention cadre sur l’IA », est parvenue à trouver un accord provisoire, sur ce qui est considéré comme le tout premier traité international sur l’IA. 

Au sein du Conseil de l’Europe — une institution qui n’a rien à voir avec l’Union européenne — les États-Unis, le Canada, le Japon, l’Union européenne et bien d’autres pays – tentaient depuis près de deux ans et demi de se mettre d’accord sur quatorze pages qui ont trait aux droits de l’homme, et à ce qu’on pourrait appeler une « IA éthique ». 

« Certaines activités liées à l’IA pourraient porter atteinte à la dignité humaine et à l’autonomie individuelle, aux droits de l’homme, à la démocratie et à l’État de droit », écrivent-ils en préambule. Il existe en effet des « risques de discrimination », de « mauvaise utilisation de l’IA » – à l’image de ces systèmes « utilisés à des fins répressives, de surveillance arbitraire ou illégale, et de censure », ajoutent-ils. 

C’est quoi ce nouveau texte sur l’IA ? 

Il s’agit du tout premier traité international sur l’IA, élaboré par le Conseil de l’Europe (à distinguer du « Conseil », la représentation des 27 pays de l’Union européenne), une institution internationale qui comprend 46 membres et dont l’objectif est de protéger les droits humains. Si un accord a été trouvé au sein de son « comité sur l’intelligence artificielle », il doit encore être avalisé par son « comité des ministres », une étape qui devrait intervenir dans le courant du mois de mai. 

Il faudra ensuite, pour qu’il devienne contraignant, que chaque État signataire le ratifie, puis qu’il soit transposé dans le droit national. À terme, il pourrait s’appliquer, une fois toutes ces étapes franchies, à l’Union européenne, mais aussi aux États-Unis, à l’Australie, au Canada, au Japon, au Mexique, au Costa Rica, à l’Argentine… Et à tous les pays qui le souhaitent. 

Son objectif « vise à aligner le développement, la conception et l’application de l’intelligence artificielle avec les principes du Conseil de l’Europe », souligne sa Secrétaire Générale, Marija Pejčinović Burić, dans un communiqué. Pour ses rédacteurs, l’intelligence artificielle, qui englobe autant les IA génératives comme ChatGPT que les IA prédictives – l’IA qui est utilisée pour faire des recommandations sur les réseaux sociaux – ne doit pas porter atteinte aux droits de l’Homme, à la démocratie et à l’État de droit.

Le traité vise à combler un vide. Jusqu’à présent, les règles sont majoritairement définies par les entreprises qui développent ces IA – comme OpenAI, Google, Mistral. Et le respect des droits humains est loin d’être dans leurs priorités. « L’idée, c’est de ne pas attendre que leurs systèmes soient mis sur le marché (et accessibles au grand public, ndlr), c’est de mettre en place des règles démocratiques au plus vite et en amont », explique Katharina Zügel, Policy Manager au sein du Forum sur L’Information et la Démocratie, que 01net.com a interrogée.

On trouve parmi les principes à respecter : les droits de l’homme, la démocratie, la dignité humaine, la transparence, l’égalité et la non-discrimination, le respect des règles en matière de données personnelles et de vie privée, ainsi que l’idée d’innovation sûre. Les systèmes d’intelligence artificielle ne doivent par exemple pas être utilisés pour « saper l’intégrité, l’indépendance et l’efficacité des institutions et processus démocratiques, y compris le principe de séparation des pouvoirs, le respect de l’indépendance judiciaire et l’accès à la justice ».

Quelle différence avec l’AI Act ?

Contrairement au règlement européen sur l’IA, « son champ d’application va au-delà de l’Union européenne, puisque les négociations impliquent des pays comme les États-Unis, qui abritent bon nombre d’entreprises du secteur, le Japon et le Canada, des pays qui peuvent tous signer la convention », précise Katharina Zügel, qui suit de près le texte.

Autre différence : à l’inverse de l’AI Act qui va tout au long de ses 459 pages lister quelles règles les outils d’IA doivent respecter pour être mis sur le marché, la convention cadre est un document assez court. La dizaine de pages de l’accord provisoire du 14 mars a été publiée par un ancien journaliste d’Euractiv sur LinkedIn, puis par Contexte. Il définit de grands principes, des normes et droits à respecter dans la création, l’application et le développement de l’IA. Mais à charge pour les États qui le ratifient de le transposer dans leur propre droit, et de s’atteler à la question de ses mesures d’applications – même si la convention prévoit un mécanisme de suivi.

Ces derniers pourraient s’appuyer sur les recommandations publiées en février dernier par le Forum sur la démocratie, qui propose des mesures à adopter pour mettre en œuvre les principes d’égalité et non discrimination. Parmi elles, on trouve par exemple le fait d’« ouvrir les équipes développant l’IA à des équipes plus inclusives et diverses, le fait de décider du choix des données utilisées pour entraîner l’IA avec la société civile et des chercheurs, de mettre en place des analyses d’impact de ses systèmes... », liste sa responsable des politiques publiques.

À lire aussi : Pourquoi les algorithmes sont encore sexistes

Sera-t-il applicable au secteur privé ?

L’application de cette convention au secteur privé a été le point qui a cristallisé les tensions. Dans la version initiale de ce traité international, les rédacteurs proposaient d’appliquer ce texte au secteur privé et au secteur public, avec des exceptions pour la défense nationale. Mais une exception pour le secteur privé a été introduite dans la version publiée en décembre dernier, une exception finalement adoptée le 14 mars dernier, au sein du Comité de l’IA de l’institution.

Quelques jours plus tôt, plusieurs ONG comme la Ligue des droits de l’Homme, Reporters sans frontières, Féministes contre le cyberharcèlement, Access Now, ou Public Eye étaient montées au créneau. Dans une lettre ouverte, elles déploraient cette possible exclusion des Big Tech et entreprises du secteur de l’IA. Cela reviendrait à « vider la convention de sa substance », en n’offrant « que peu de protection significative aux individus qui sont de plus en plus soumis à des systèmes d’IA puissants, enclins à la partialité, à la manipulation humaine et à la déstabilisation des institutions démocratiques », écrivaient-elles.

Selon l’accord provisoire du 14 mars, les négociateurs ont finalement proposé que les pays puissent choisir entre :

  • appliquer la convention en l’état aux acteurs privés ou 
  • prendre « d’autres mesures appropriées » pour atteindre les objectifs et les finalités du texte. 

« C’est une énorme occasion ratée », regrette Katharina Zügel. « C’est évidemment important d’avoir cette convention applicable au secteur public, mais en excluant le secteur privé, chaque pays va décider des règles qui s’appliquent aux entreprises » – qui sont les acteurs qui développent les IA.

Un autre point très discuté a été une autre exclusion : celle du secteur de la défense. Là aussi, les ONG demandaient a minima que soit inscrite dans la Convention l’obligation, pour les IA utilisées à des fins de sécurité nationale – donc les applications militaires ou celles utilisées par les services de renseignement – de respecter le droit international. Certains pays défendaient, de leur côté, l’idée d’une exemption générale. Finalement, c’est la première approche qui a été retenue. Les activités liées à la protection de la sécurité nationale ne seront pas tenues de respecter la Convention cadre, mais elles devront être menées en conformité avec le droit international.

Si ce texte et ses grands principes peuvent paraître abstraits ou uniquement déclaratoires, ils pourraient avoir à terme un réel impact sur tout le secteur de l’IA. Les États signataires s’engagent en effet à le transposer dans leur droit — et donc à l’appliquer aux acteurs du secteur, soit à la lettre, soit via « d’autres mesures appropriées » pour atteindre les objectifs et les finalités du texte. La prochaine étape de son adoption aura lieu en mai prochain, lors du passage du texte devant le Comité des ministres de l’institution.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.