L’avis rendu par la Federal Communications Commission, le gendarme américain du secteur des télécoms, fera jurisprudence dans le domaine des deepfakes vocaux. La société texane Lingo Telecom a été sanctionnée d’une amende d’un million de dollars pour avoir diffusé auprès de la population du New Hampshire des appels téléphoniques trompeurs imitant la voix de Joe Biden.
Générés par une intelligence artificielle de clonage vocal, ces messages automatisés cherchaient à dissuader les électeurs de cet Etat d’aller voter pour le président américain deux jours avant la tenue des élections primaires démocrates.
A la manœuvre, on trouve Steve Kramer, un consultant politique employé par un rival de Joe Biden. Ce dernier aurait payé seulement 500 dollars cette opération de désinformation. Il risque une amende de 6 millions de dollars.
« L’intimidation des électeurs, qu’elle soit menée en personne ou par le biais d’appels automatisés de type deepfake, de campagnes de désinformation en ligne ou d’autres tactiques alimentées par l’IA, peut constituer un véritable obstacle pour les électeurs qui cherchent à exercer à leur rôle de citoyen dans notre démocratie », estime la procureure générale adjointe Kristen Clarke.
La responsabilité des opérateurs télécoms reconnue
Cet avis a pour mérite de tenir pour responsable l’opérateur télécom dans la transmission des appels automatisés falsifiés par l’IA. « La FCC envoie un message fort selon lequel l’interférence électorale et les technologies trompeuses ne seront pas tolérées », avance le régulateur.
Cela lève l’ambiguïté juridique qui peut régner sur la responsabilité juridique des éditeurs de sites ou de réseaux sociaux véhiculant des contenus trompeurs. Et qui se retranchent derrière leur statut d’hébergeur.
En plus de l’amende, Lingo Telecom est tenu de mettre un plan de conformité pour vérifier l’identité et le secteur d’activité de chaque client. Mais aussi des appelants dans le cadre d’une politique KYC (Know your customer) et KYP (Know your partner).
Des actions aussi dans l’assurance auto et les prêts hypothécaires
Par ses actions, la FCC estime avoir fait baisser de 99 % les campagnes d’appels automatisés pour des escroqueries liées à l’assurance auto. Et de 88 % dans le cas d’arnaques aux prêts étudiants ou aux prêts hypothécaires.
Le régulateur a pris des mesures contre ce type de deepfakes. Il a rendu illégal le recours des robots vocaux en l’absence du consentement préalable. La FCC oblige, par ailleurs, les partis politiques à déclarer qu’ils font appel à l’IA dans leurs spots radio ou TV.
Le clonage vocal dopé par l’IA générative
Après les photos et les vidéos contrefaites, les deepfakes vocaux sont appelés à se multiplier avec les progrès de l’IA générative. Il existe nombre croissant outils de clonage vocal, dont certains sont disponibles gratuitement comme Vidnoz ou Ressemble AI. Apple propose même une fonction « Voix personnelle » avec iOS 17.
Un équipe constituée de chercheurs des laboratoires de Kyutai, de l’Inria et de Meta ont récemment développé un outil anti-clonage vocal, AudioSeal, qui consiste à apposer une filigrane pour authentifier les contenus audios.