pas de tsunami mais des risques croissants

pas de tsunami mais des risques croissants


Mars 2024 : l’entreprise américaine OpenAI annonce un nouveau produit, Voice Engine, capable de reproduire une voix sur la base d’un court enregistrement. L’entreprise décide cependant de différer sa mise sur le marché, en raison notamment des « risques sérieux » que pose ce type d’outil. L’apparition, ces dernières années, de l’intelligence artificielle (IA) générative, capable de créer à moindre coût textes, sons, images et même vidéos, suscite en effet d’immenses inquiétudes. Alors que s’ouvre le 10 février à Paris le Sommet pour l’action sur l’intelligence artificielle, dont la sécurité est un des thèmes principaux, nombre d’observateurs craignent qu’elle soit utilisée pour démultiplier les arnaques en ligne et doper les campagnes de désinformation sur les réseaux sociaux.

Dès 2023, Lina Khan, alors à la tête de la Federal Trade Commission, l’agence américaine chargée de la protection des consommateurs, alertait sur l’« accélération » très nette des arnaques permises par l’IA générative. Plus récemment, en décembre, le FBI résumait l’état de la menace en expliquant que les criminels utilisent textes et images générés par l’IA « pour être plus crédibles aux yeux de leurs cibles », notamment dans des cas d’« hameçonnages ou d’escroqueries financières ». L’IA, écrit la police fédérale américaine, est aussi utilisée pour créer plus rapidement des sites frauduleux, générer de faux documents à des fins d’usurpation d’identité, créer des enregistrements audio synthétiques permettant aux escrocs de se faire passer, auprès de la victime, pour un proche prétendument en mal d’argent, ou encore déjouer les mécanismes de sécurité d’une banque pour accéder à ses comptes.

Il vous reste 75.58% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.