Les professionnels de l’IA le répètent souvent : les cas d’usage sont les premiers leviers d’adoption et de démocratisation. En la matière, ChatGPT a largement contribué à l’accessibilité des techniques d’intelligence artificielle.
Cependant, ces innovations de rupture peuvent aussi mettre en lumière des risques ou dérives, notamment juridiques et éthiques.
Autorité compétente en France sur les questions liées à l’IA, la CNIL entend ne pas se laisser distancer.
Renforcement de l’expertise du régulateur sur l’IA
La Commission a annoncé la création d’un service de cinq personnes dédié à l’intelligence artificielle, le SIA. Il est rattaché à la direction des technologies et de l’innovation, dirigée par l’ancien coordonnateur national pour la stratégie IA, Bertrand Pailhès.
L’objectif visé par la CNIL est de « renforcer son expertise sur ces systèmes et sa compréhension des risques pour la vie privée, tout en préparant l’entrée en application du règlement européen sur l’IA ».
La mission du SIA consistera en outre à « développer les relations avec les acteurs de l’écosystème » et à favoriser l’acculturation des professionnels et des particuliers. La CNIL rappelle par ailleurs que l’enjeu n’est pas que technologique.
Des systèmes comme ChatGPT posent en effet aussi des questions de droit. Ainsi, le SIA, bien que rattaché à la direction des technologies et de l’innovation, sera en outre en « étroite » collaboration avec « l’accompagnement juridique ».
La performance occulte les risques
« Dès à présent, et sans attendre l’évolution du cadre juridique, la création de ce service vient répondre à un enjeu de société dont l’importance augmente chaque jour », souligne encore l’autorité de protection, attentive à l’actualité.
Voilà pour le travail au long cours. Il se double d’une mission à plus brève échéance portant cette fois sur les bases de données d’apprentissage. Pour entraîner ces IA, leurs concepteurs ont généralement recours à d’importants volumes de données.
ChatGPT en est une illustration avec un usage du scrapping de données sur internet – combiné à des travailleurs du clic. La CNIL rappelle, sans cibler une IA en particulier, « que leur fonctionnement repose sur le traitement d’un grand nombre de données, très souvent personnelles ».
En conséquence, « leur mise en œuvre comporte ainsi des risques pour la vie privée ». La CNIL souhaite prévenir un fonctionnement en mode black-box, incompatible avec certaines exigences réglementaires – en matière d’explicabilité notamment.
Des recommandations sur les bases d’apprentissage en 2023
Outre la création du SIA, la Commission lance donc des travaux sur les bases de données d’apprentissage. La CNIL fait savoir qu’organismes publics et privés la sollicitent sur la légalité de certains usages concernant la constitution de bases d’entraînement.
« Les travaux à venir ont donc pour objet de préciser la position de la CNIL sur ce point et de promouvoir des bonnes pratiques, au titre des exigences posées par le RGPD, mais aussi dans la perspective de la proposition de règlement sur l’IA actuellement débattue au niveau européen. »
Le chantier sur les bases d’apprentissage doit déboucher sur des « réponses concrètes » en matière de création ou d’utilisation de tels actifs « dans le respect des droits et libertés fondamentaux des personnes ». Des recommandations de la CNIL seront publiées, puis soumises à une consultation publique.
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));