La France se dote d’un nouveau comité Théodule pour l’évaluation …

La France se dote d’un nouveau comité Théodule pour l’évaluation ...


Le gouvernement multiplie les annonces en amont du Sommet pour l’action sur l’IA de Paris des 10 et 11 février.

Le 31 janvier, la secrétaire d’État en charge de l’IA et du numérique, Clara Chappaz, officialisait ainsi la création de l’INESIA.

Le lancement de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle s’inscrit dans le prolongement de la Déclaration de Séoul de mai 2024. Le rendez-vous international définissait les contours d’une “IA sûre, novatrice et inclusive.”

L’INESIA fédère des « acteurs nationaux de premier rang »

La mission de la nouvelle entité française portera donc sur l’évaluation et la sécurité de l’IA. Ses missions visent à garantir la sécurité nationale dans ce domaine. La supervision de l’INESIA sera placée sous la double autorité du Premier ministre et du ministère de l’économie.

Clara Chappaz précise en effet que le pilotage de l’institut est confié à la fois au secrétariat général de la défense et de la sécurité nationale (SGDSN) et à la Direction générale des Entreprises (DGE). Ensemble, ils doivent “fédérer un écosystème d’acteurs nationaux de premier rang.”

Pour le gouvernement, il s’agit d’ajouter une dimension sécurité aux dispositifs déjà en place pour le soutien au développement de l’intelligence artificielle. “La confiance est le fondement de la diffusion de l’IA dans l’ensemble de la société”, justifie-t-il.

Analyse des risques, régulation et évaluation des modèles

“l’État matérialise son engagement en faveur d’un développement maîtrisé de l’IA dans un cadre de confiance et de sécurité”, poursuit le communiqué. Pour remplir cette mission, aucune nouvelle structure juridique ne sera installée cependant.

Même si le gouvernement annonce la création d’un institut, celui-ci sera en réalité la fédération d’acteurs existants de l’audit et de la sécurité. Derrière la vitrine INESIA, on retrouve donc l’Anssi, l’Inria, le Laboratoire National de Métrologie et d’Essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN).

Le programme de travail de l’Institut et de ses membres sera fixé par le SGDSN et la DGE. De manière générale, les travaux concerneront “l’analyse des risques systémiques dans le champ de la sécurité nationale, le soutien à la mise en œuvre de la régulation de l’IA, et l’évaluation de la performance et de la fiabilité des modèles d’IA.”

L’État indique que l’institut constitue un équivalent des AI Safety Institutes de pays partenaires d’un réseau international sur l’IA, ainsi que de l’AI Office de la Commission européenne. Dans le cadre de cette coopération mondiale, “l’INESIA travaillera à promouvoir la sécurité, l’inclusivité et la confiance dans l’IA.”



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.