Le Forum sur l’Information et la Démocratie souhaite créer un mécanisme de certification volontaire pour « l’IA d’intérêt public ». L’idée : construire un label similaire à la certification du commerce équitable afin de sensibiliser les consommateurs, et d’encourager le développement de systèmes d’IA éthiques. Katharina Zügel, Policy Manager au sein de l’organisation, nous explique en quoi consisterait ce mécanisme.
Un label pour les systèmes d’IA éthiques ? Voilà ce que propose le Forum sur l’Information et la Démocratie, une organisation fondée en 2019 par plusieurs ONG dont Reporters sans frontières. À l’image du label « Commerce équitable », l’idée est de créer un « mécanisme de certification volontaire pour une IA d’intérêt public », nous explique Katharina Zügel, Policy Manager au sein de l’organisation. Elle est l’auteur d’un papier de recherche vu comme une première brique vers un futur système de label « IA d’intérêt public ».
01net.com : Le secteur de l’IA regorge de projets de réglementations et de code de bonne conduite : AI Act, Pacte de l’UE sur l’IA, SB 1047 aux États-Unis… en quoi consiste ce projet de certification, et en quoi se différencie-t-il de toutes les initiatives actuelles ?
Katharina Zügel : « Aujourd’hui, un grand nombre d’outils d’IA sont mis à disposition du grand public, mais aussi des administrations publiques. Ces utilisateurs choisissent les systèmes un petit peu au hasard ou en fonction des meilleures fonctionnalités. On l’a vu avec le lancement de ChatGPT, tout le monde y est allé sans forcément comprendre ce que ça impliquait : comment ce système a-t-il été entraîné, qu’est-ce qui se passe avec mes données, qu’est-ce que propose cette IA, quel type de vision du monde sous-tend-elle ? Et donc notre idée est de s’inspirer de ce qui s’est passé dans d’autres secteurs, où la création des labels a eu un impact sur les consommateurs, mais aussi sur les entreprises qui créent les produits. »
Qu’est-ce-que ça voudrait dire, IA d’intérêt public ?
La majorité des systèmes d’IA ont été développées par de grandes entreprises privées qui l’ont fait dans une perspective de profit économique. Pour nous, une IA d’intérêt public, c’est une IA qui a comme objectif principal de servir l’intérêt public. Ce qui exclut les systèmes d’IA développés sans respecter le droit de travail, ou qui ont un énorme impact environnemental, ou qui n’essaient même pas de le réduire… Ou encore qui ne respectent pas les questions de diversité et de représentativité.
L’objectif de cette certification est donc d’inciter les entreprises à créer des systèmes qui soient plus positifs pour la société et la démocratie, mais aussi de créer la demande pour ce type d’outils. Nous souhaitons mettre en place un sigle très facile à reconnaître pour l’utilisateur, parce qu’aujourd’hui, il y a, bien sûr, surtout dans le cadre européen, des mécanismes de certification qui vont se créer sur la sécurité. Mais cela reste une perspective réglementaire, l’idée, ici, est de créer quelque chose qui soit accessible aux consommateurs, et qui dépasse l’échelle de l’Union européenne, la seule région où la législation est très avancée. Le futur label permettra d’avoir une solution qui est plus à l’échelle mondiale.
Aujourd’hui, il existe des centaines de systèmes d’IA comme ChatGPT, Gemini, Llama, Claude, Granite, Mistral : l’un d’entre eux correspond-il à ce que vous appelez « IA d’intérêt général » ?
On n’a pas encore pu faire une évaluation des outils IA existants, mais oui, il existe aujourd’hui des IA d’intérêt général, mais à l’échelle plus petite. Nous sommes par exemple très liés à Reporters sans Frontières, qui est une des organisations qui a créé le Forum. Et eux sont en train de travailler à la création d’un outil d’IA dédié aux médias et aux journalistes sur le climat, qui permettra aux journalistes de faire des recherches beaucoup plus ciblées sur les questions climat.
Et donc ça, c’est un outil qui est créé dans une perspective d’apporter quelque chose à notre société, qui a des accords avec toutes les institutions qui ont donné les données pour entraîner l’IA, même si son algorithme a été créé par un des géants du secteur. Mais la future certification ne serait pas limitée à ces IA particulières, l’idée est aussi de proposer que les grands systèmes d’IA (les plus populaires, NDLR) soient développés de cette manière-là.
Concrètement, vous avez publié « un article de recherche » le 19 septembre dernier : quelles sont vos prochaines étapes ?
L’idée de créer un mécanisme de certification pour l’IA est issue de notre dernier rapport publié en février dernier. C’était une des chercheuses, Martha Cantero Gamito (professeur de droit des technologies de l’information et chercheuse à l’école de Florence, NDLR), qui avait proposé cette idée de label IA d’intérêt public, et qui avait fait cette proposition. Ce papier de recherche n’est que la toute première étape.
Nous allons organiser une série d’ateliers avec différents acteurs comme l’Unesco, d’autres associations et des pays du Partenariat, l’idée étant que ça aboutisse à quelque chose de concret, au coup d’envoi à la création de ce mécanisme, pour le Sommet sur l’IA qui est planifié en février à Paris (le Forum sur l’Information et la Démocratie vise à mettre en œuvre les principes du « Partenariat pour l’information et la démocratie », un texte approuvé par 52 États, NDLR).
Pour lancer ce label, il y a deux étapes. D’une, il faut d’abord définir le système et la structure de gouvernance. Une fois que ça, c’est fait, il faut définir ses critères d’évaluation, et lancer un processus de standardisation (cad, définir ce à quoi il faudrait répondre pour bénéficier de ce label, NDLR) – et cela pourrait facilement prendre un an pour vraiment définir les critères, dans le détail.
Justement, quels seraient les critères de ce label, qui pourrait le piloter et le gérer ?
Nous proposons de créer une institution indépendante, qui sera chargée de définir les standards et de les réviser. Elle pourrait travailler avec des institutions de certification qui sont aujourd’hui déjà très réglementées, comme les normes ISO.
En gros, il y aurait deux types de critères. Les premiers porteront plutôt sur l’entreprise qui propose et qui déploie l’outil d’IA, et son fonctionnement. Respecte-t-elle le droit du travail, prévoit-elle une gouvernance démocratique, protège-t-elle les lanceurs d’alerte, a-t-elle un impact environnemental, peut-elle créer un outil dans l’intérêt public ?
Les seconds tournent autour des systèmes d’IA en eux-même et leurs bases des données, le droit d’auteur et la vie privée sont-ils respectés ? Y a-t-il une certaine transparence, d’autres acteurs ont-ils participé à la création de ce système et à définir quels sont les risques acceptables et inacceptables ? Aujourd’hui, les questions importantes sont tranchées derrière des portes fermées, et uniquement par l’entreprise.
Construire puis mettre en place cette certification va prendre du temps : n’arrivera-t-elle pas trop tard ?
Effectivement, ça aurait été mieux de l’avoir il y a cinq ans, et dès le début du lancement des systèmes d’IA. Mais pour nous, il n’est jamais trop tard. On le voit aujourd’hui avec les réseaux sociaux, les législations avec des règles plus strictes sont arrivées bien après (leur lancement et leur adoption en masse, NDLR). En plus, le développement des IA n’est pas arrêté, leur puissance et leur capacité vont augmenter.
L’idée de ce label, c’est aussi sortir de l’approche adoptée par exemple par la loi européenne (l’AI Act) qui est « d’éviter les risques » ou de « maîtriser les risques ». Il s’agit au contraire d’apporter quelque chose de complémentaire avec les législations en cours d’adoption, de créer un mécanisme qui consiste à encourager quelque chose de positif.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.