« Pour concevoir une agence de sécurité de l’IA, il faut penser, et surtout prévoir, son impact sur les comportements humains »

« Pour concevoir une agence de sécurité de l’IA, il faut penser, et surtout prévoir, son impact sur les comportements humains »


Alors que se met en place la réglementation européenne des services et marchés numériques, le Parlement européen s’est penché cet été sur la régulation de l’intelligence artificielle (IA), fondée sur une échelle des risques de chaque algorithme ou système. Ces projets s’inscrivent dans un contexte international où Etats, organisations et institutions tâchent de développer des cadres d’analyse permettant de telles régulations.

En parallèle, de nombreux acteurs, principalement académiques ou associatifs, appellent à la création d’agences nationales chargées de la sécurité algorithmique. La plupart de ces propositions reposent sur un équivalent de l’Agence française du médicament ou de la Food & Drug Administration aux Etats-Unis, qui contrôlerait a priori la dangerosité d’un algorithme ou système d’IA et autoriserait sa mise sur le marché.

Malheureusement, de telles propositions se leurrent quant à leur impact effectif. En effet, bien que toute étude préalable des risques et des impacts prévisibles soit bienvenue, elle ne servira en réalité pas à grand-chose si une surveillance et un contrôle en continu ne sont pas instaurés. L’erreur que font ces analystes et experts tient à ce qu’ils pensent l’algorithme comme un objet informatique ou mathématique issu des sciences exactes, qui produirait toujours des effets identiques, d’où l’analogie avec le médicament : si ses effets peuvent fluctuer d’un individu à l’autre, l’action biologique de l’aspirine n’a pas varié depuis sa découverte.

Mais le corps social est, quant à lui, toujours en évolution. Il faut donc en réalité interpréter l’algorithme comme un phénomène comportemental, voué à générer, lors de sa diffusion et de son appropriation par les utilisateurs, des interactions et donc des risques, qui pourraient sembler a priori imprévisibles. Qui, en effet, avait envisagé, lors de la création de Facebook comme un réseau d’anciens élèves, que ce type de plate-forme pourrait faciliter des phénomènes politiques aussi divers que les « printemps arabes » ou les révolutions de couleur dans l’ex-URSS, l’apparition du Tea Party et l’émergence de Donald Trump ou de Qanon ?

Recette nouvelle pour objectif ancien

Pour concevoir une agence de sécurité des algorithmes et de l’IA, il faut donc penser – et surtout prévoir – l’impact sur les comportements humains et les perceptions que ceux-ci en ont, les effets d’interactions dynamiques et de réseau. L’algorithme n’est en effet qu’une recette nouvelle pour un objectif bien ancien : le principe même de toute politique publique est d’influencer les comportements des individus. L’histoire est en ce sens parsemée de nos échecs.

Il vous reste 57.68% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.