Des escrocs utilisent des « deepfakes » pour postuler sur des postes en distanciel

Des escrocs utilisent des "deepfakes" pour postuler sur des postes en distanciel



Selon le FBI, les escrocs ou les criminels utilisent des « deepfakes » et des données personnelles volées lors d’entretiens d’embauche en ligne pour des postes à distance.


L’utilisation de « deepfakes » ou de contenus audio, image et vidéo artificiels créé à l’aide de l’IA ou de technologies d’apprentissage automatique est considéré comme une menace potentielle de phishing depuis plusieurs années.

Les nouvelles recrues fantômes


Le Internet Crime Complaint Center (IC3) du FBI déclare maintenant avoir constaté une augmentation du nombre de plaintes faisant état de l’utilisation de « deepfakes » et de données personnelles volées pour postuler sur des emplois à distance, principalement dans le secteur des technologies.


Si certaines organisations tentent d’organiser un retour au bureau, le secteur des technologies de l’information est[ le plus réticent à abandonner le mode de travail à distance qui s’était installé depuis la pandémie de Covid-19.


Les signalements adressés à l’IC3 concernaient principalement les postes vacants dans les technologies de l’information, la programmation, les bases de données et les fonctions liées aux logiciels.


Soulignant le risque pour une organisation d’embaucher un candidat frauduleux, le FBI note que « certains des postes signalés incluent l’accès à des données personnelles de clients, des données financières, des bases de données informatiques d’entreprise et/ou des informations exclusives ».

Des incohérences visuelles à identifier


Dans les cas signalés à l’IC3, le FBI indique que les plaintes portent sur l’utilisation d’outils d’imitation de la voix lors d’entretiens en ligne avec des candidats potentiels. Mais il note également que les victimes ont remarqué des incohérences visuelles.


« Dans ces entretiens, les actions et le mouvement des lèvres de la personne que l’on voit interviewée devant la caméra ne correspondent pas complètement à l’audio de la personne qui parle. Parfois, des actions telles que la toux, les éternuements ou d’autres actions auditives ne sont pas alignées avec ce qui est présenté visuellement », a déclaré le FBI.


Les plaintes déposées auprès de l’IC3 décrivent également l’utilisation de renseignements personnels volés pour postuler à ces postes à distance.


« Les victimes ont signalé l’utilisation de leur identité et les vérifications des antécédents avant l’embauche ont permis de découvrir que les données personnelles fournies par certains des candidats appartenaient à une autre personne », indique le FBI.


Le FBI en mars 2021 a prévenu que les acteurs malveillants utiliseraient presque certainement les deepfakes pour des opérations d’influence à l’étranger dans les 12 à 18 prochains mois.


Il a également prédit que le contenu créé par deep learning pourrait être utilisé comme une extension du spearphishing et de l’ingénierie sociale. L’organisation craint que les fraudeurs à l’origine des arnaques de compromission du courrier électronique professionnel (BEC) – la forme de fraude la plus coûteuse aujourd’hui – ne passent à la compromission de l’identité professionnelle, où les fraudeurs créent des personnalités d’entreprise artificielle ou une imitation sophistiquée d’un employé existant.


Le FBI a également noté que des indicateurs visuels tels que des distorsions et des incohérences dans les images et les vidéos peuvent trahir un deepfake. Les incohérences visuelles typiques des vidéos artificielles comprennent les mouvements de la tête et du torse et les problèmes de synchronisation entre les mouvements du visage et des lèvres, et le son associé.


Les attaques frauduleuses contre les processus de recrutement ne sont pas une menace nouvelle, mais l’utilisation de deepfakes dans ce domaine est une nouveauté.


Source : « ZDNet.com »





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.