L’intelligence artificielle (IA) devient l’affaire de tous à mesure que les cas d’usage se développent dans de nombreux secteurs d’activité. Pourtant, comprendre réellement ce qui se cache derrière les algorithmes et ce que cela implique pour le business n’est pas une mince affaire.
Preuve en est, selon une récente étude du BCG : si 84 % des entreprises affirment que l’IA responsable devrait être une priorité, seules 16 % d’entre elles ont développé un programme mature.
Pour pallier ces difficultés, le leader de la cosmétique L’Oréal, l’opérateur Orange France, la société de conseil BCG Gamma et l’assureur Malakoff Humanis lancent un label d’IA responsable. Il est conçu pour aider les entreprises à repérer les algorithmes défaillants et à se défaire des mauvaises pratiques.
Des algorithmes à risque
Présenté ce jeudi à la presse, ce label devrait être mis en place « début 2023 », a indiqué Laetitia Orsini Sharps, présidente de l’association Positive AI, porteuse du projet. Il sera attribué aux acteurs qui respectent les critères définis par un référentiel créé avec l’appui du cabinet EY.
Le label s’inscrit dans la lignée du futur cadre européen sur l’IA responsable, qui doit être appliqué à partir de 2025. Les entreprises candidates au label feront tester par un cabinet d’audit indépendant un panel de leurs algorithmes « les plus à risque ». Ces audits seront à renouveler à intervalle régulier, pour prouver la transparence et la robustesse des systèmes d’IA dans le temps.
Chacun dans leur secteur, les quatre entreprises à l’origine du label ont été confrontées à des algorithmes à risque. Pour limiter, voire éliminer les risques, elles ont réalisé un profond travail d’analyse sur les biais éventuels des datasets d’entraînement, de la gouvernance, du cycle de vie des algorithmes et de la capacité des équipes tech à ouvrir le capot et en expliquer le fonctionnement.
Embarquer le business
L’objectif, avec ce label, est « d’embarquer les entreprises » dans l’IA responsable, ces acteurs étant les principaux concernés par le développement et le déploiement des outils d’IA à plus ou moins grande échelle.
L’IA responsable ne sert pas seulement à limiter les risques, il sert aussi un intérêt business. « On présuppose souvent que les entreprises qui se lancent dans l’IA responsable veulent avant tout éviter les risques, or c’est aussi pour créer de la valeur », indique Nicolas de Bellefonds, directeur monde de BCG Gamma.
Courant 2023, Positive AI veut mettre en place une plateforme digitale à destination des entreprises pour qu’elles réalisent des auto-diagnostics sur leur niveau de maturité.
Au-delà des outils concrets, Positive AI se pense comme un espace d’échange entre les experts de l’IA et les top managers. Selon Laetitia Orsini Sharps, la vocation de l’association est de s’ouvrir à plus d’entreprises de différents secteurs.
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));