Une « énorme promesse d’incroyables opportunités », mais dans le même temps « des risques pour notre société, notre économie et notre sécurité nationale » : c’est ainsi que le président américain, Joe Biden, a décrit, vendredi 21 juillet, sa vision de l’intelligence artificielle (AI) à l’issue d’une réunion à la Maison Blanche avec sept entreprises majeures de ce secteur en pleine effervescence.
« Les médias sociaux nous ont montré le mal qu’une technologie puissante peut faire sans les bonnes garanties en place », a averti le président américain aux côtés des dirigeants d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI. « Le groupe ici [présent] sera essentiel pour guider cette innovation avec responsabilité et sécurité », a-t-il assuré.
Alors que ces sept entreprises se sont engagées à respecter « trois principes qui doivent être fondamentaux au développement de l’intelligence artificielle », à savoir la sûreté, la sécurité et la confiance, Joe Biden a salué leur engagement à « pousser une innovation responsable », tout en admettant avoir encore « beaucoup de travail à faire ensemble ».
« Nous verrons plus de changements technologiques dans les dix prochaines années ou même dans les prochaines années que nous n’en avons vus au cours des cinquante dernières années. Cela a été une révélation étonnante pour moi », s’est ému le président démocrate.
Mais les craintes liées à cette puissante technologie s’intensifient, des dangers pour les consommateurs (fraude) et les citoyens (désinformation) au risque de perdre de nombreux emplois.
Un marquage en filigrane
Les quatre géants de la technologie, ainsi que le fabricant de ChatGPT OpenAI et les start-up Anthropic et Inflection, se sont engagés à effectuer des tests de sécurité « réalisés en partie par des experts indépendants » pour se prémunir contre les risques majeurs, tels que la biosécurité et la cybersécurité, a déclaré la Maison Blanche dans un communiqué. Ces tests examineront également le potentiel de préjudices sociétaux, tels que les préjugés et la discrimination, et les dangers plus théoriques des systèmes d’IA avancés qui pourraient prendre le contrôle de systèmes physiques ou « s’autorépliquer » en faisant des copies d’eux-mêmes.
Les entreprises se sont également engagées à investir dans la cybersécurité et à partager des informations pertinentes sur leurs outils, y compris d’éventuelles failles, avec les autorités et les chercheurs.
Elles doivent aussi « développer des techniques solides pour s’assurer que les utilisateurs savent quand des contenus ont été générés par de l’IA, comme un système de marquage en filigrane », ajoute la Maison Blanche. Jusqu’à présent, les principales entreprises concernées se sont montrées plutôt réticentes à l’idée d’ajouter de telles marques sur les contenus créés avec leurs programmes.
Les fausses photographies et les montages perfectionnés (« deepfake ») existent depuis des années, mais l’IA générative, capable de produire du texte et des images sur simple requête en langage courant, fait craindre un déferlement de faux contenus en ligne. Ceux-ci peuvent servir à fabriquer des arnaques ultra-crédibles ou encore à manipuler l’opinion. Une perspective particulièrement inquiétante à l’approche de la présidentielle américaine de 2024.
La nécessité d’une loi
Le comité de soutien de Ron DeSantis, grand rival de Donald Trump dans la course à l’investiture du parti républicain, a déjà utilisé dans un spot publicitaire une fausse voix générée par intelligence artificielle et ressemblant à s’y méprendre à celle de l’ancien président.
Le Monde
Offre spéciale étudiants et enseignants
Accédez à tous nos contenus en illimité à partir de 8,99 euros par mois au lieu de 10,99 euros
S’abonner
« Nous devons actionner tous les leviers du gouvernement fédéral afin d’encadrer » ce secteur et « travailler » avec le Congrès afin de légiférer, a déclaré le chef de cabinet de la Maison Blanche, Jeff Zients, au site d’informations Axios. Il a ajouté qu’une loi est nécessaire pour disposer d’expertise au sein du gouvernement fédéral et pour « avoir l’autorité réglementaire pour tenir le secteur privé responsable de ses actions ».
Les tensions politiques actuelles au Congrès − où les républicains tiennent la Chambre − rendent l’adoption de nouvelles lois sur l’IA peu probables dans l’immédiat, mais le gouvernement a dit travailler à un décret sur la sécurité dans ce domaine.
« Il était très ferme et clair » qu’il voulait que les entreprises continuent d’être innovantes, mais en même temps « sentait que cela nécessitait beaucoup d’attention », a déclaré le PDG d’Inflection, Mustafa Suleyman, dans une interview après la réunion à la Maison Blanche. « C’est un gros problème de réunir tous les laboratoires, toutes les entreprises », a ajouté M. Suleyman, dont la start-up basée à Palo Alto (Californie) est la plus jeune et la plus petite des entreprises. « C’est super compétitif et nous ne nous réunirions pas dans d’autres circonstances », a-t-il expliqué pour mesurer la portée de cet entretien avec le président américain.
Les engagements de l’industrie obtenus par l’administration de Biden sont « un premier pas important », selon Paul Barrett, directeur adjoint du Center for Business and Human Rights de l’université de New York. « Mais comme ils ne sont pas soumis à sanction en cas de non-respect, il est vital que le Congrès vote sur des lois rapidement », a-t-il ajouté.
La Maison Blanche a également assuré qu’elle travaillait avec des alliés à l’étranger pour rechercher « un cadre international solide pour régir le développement et l’utilisation de l’IA » dans le monde. Le sujet était au premier plan lors du G7 au Japon en mai, et la Grande-Bretagne s’apprête à organiser un sommet international sur l’IA, sans doute à l’automne prochain.