C’est un étonnant appel automatique qu’ont reçu, en janvier, quelque cinq mille électeurs du New Hampshire. Au bout du fil, la voix de Joe Biden qui, dans un message pré-enregistré, leur déconseillait d’aller voter aux primaires démocrates américaines du mardi 23 janvier. « Votre vote fera la différence en novembre, pas ce mardi (…) Voter ce mardi ne fera qu’aider les républicains à faire réélire Donald Trump. » C’était un faux : la voix de Joe Biden a été imitée par intelligence artificielle. Un deepfake politique qui a généré beaucoup d’émoi aux Etats-Unis.
On connaît désormais l’identité du commanditaire, dévoilée vendredi 23 février par la chaîne américaine NBC. Il s’agit de Steve Kramer, un consultant embauché par l’équipe de Dean Phillips, autre candidat à l’investiture démocrate. Dans un entretien à NBC, il affirme être à l’origine de cette idée et jure que l’équipe de Dean Phillips, qui avait dénoncé cette campagne d’appels, n’était pas impliquée dans le projet.
Steve Kramer explique avoir reçu une convocation de la Federal Communications Commission, le régulateur américain des télécoms. Ce n’est pas le seul problème qui l’attend : plusieurs procédures ont été lancées aux Etats-Unis après la diffusion de ce faux message de Joe Biden. Il faut dire que les autorités sont sur les dents : à quelques mois de l’élection présidentielle de novembre, la crainte que l’intelligence artificielle soit utilisée pour perturber le processus démocratique grandit, alors que ces outils, de plus en plus performants, sont aussi de plus en plus faciles d’accès.
Une opération à 500 dollars
C’est ce sur quoi repose la défense de Steve Kramer : le consultant explique que son initiative avait justement pour objectif de mettre en lumière les dangers de l’intelligence artificielle en politique. « C’était une façon pour moi de faire la différence, et ça a marché », a-t-il déclaré à NBC. « Pour 500 dollars, j’ai obtenu un effet équivalent à 5 millions de dollars », a-t-il poursuivi, évoquant l’écho de cette histoire auprès des médias et des régulateurs.
Pourquoi, alors, ne pas être sorti du bois plus tôt et avoir attendu qu’une chaîne américaine dévoile son identité pour s’exprimer ? « J’attendais que la primaire de Caroline du Sud soit terminée, je ne voulais pas interférer », s’est-il défendu. Tout en estimant que cet appel imitant Joe Biden « n’allait pas changer grand-chose » à l’issue de la primaire.
Steve Kramer a aussi admis qu’il ne s’agissait pas, pour lui, d’une première : il avait déjà utilisé le même procédé pour imiter la voix du sénateur républicain Lindsey Graham dans un appel automatique envoyé à trois cents personnes. Un test, selon lui : le faux sénateur demandait à ses interlocuteurs quel était leur candidat favori des primaires républicaines. Il prétend avoir obtenu un taux de réponse quatre fois supérieur aux appels automatiques classiques n’utilisant pas l’IA.
Inquiétudes avant les élections
Ce consultant a participé à des dizaines de campagnes électorales aux Etats-Unis, principalement pour des candidats démocrates, mais aussi pour le chanteur Kanye West, qui avait tenté, en 2020, de se lancer dans la course à la Maison Blanche. Paul Carpenter, magicien, a dévoilé son identité à la chaîne NBC. Il se définit comme un « artiste digital nomade » et dit avoir été embauché en janvier par Steve Kramer afin de fabriquer le fichier audio, pour 150 dollars (138 euros). Un travail qui aurait pris une vingtaine de minutes à cet adepte d’expérimentations numériques, que le consultant a rencontré par l’intermédiaire d’une connaissance commune.
L’émergence des deepfakes, à la fin des années 2010, a fait naître des inquiétudes sur leurs potentiels usages politiques. Si ces technologies ont, jusqu’ici, surtout été utilisées pour produire des contenus pornographiques (les deepfakes permettent de répliquer la voix, mais aussi l’image de personnes), leur démocratisation amplifie les craintes relatives aux élections, alors que la moitié de la population mondiale en âge de voter est appelée aux urnes en 2024, que ce soit lors de scrutins libres ou déjà joués d’avance.
A la mi-février une vingtaine de grandes entreprises du numérique, dont Google, Meta, ou OpenAI, ont d’ailleurs signé un texte commun grâce auquel elles s’engagent à « aider à empêcher les contenus trompeurs générés par IA [intelligence artificielle] d’interférer dans les élections prévues cette année dans le monde ». Le deepfake téléphonique de Joe Biden est le premier exemple américain d’ampleur.