ChatGPT serait en mesure de djouer facilement certaines techniques classiques d’obscurcissement des adresses lectroniques, Une capacit qui pourrait tre exploite par des acteurs de la menace

ChatGPT serait en mesure de djouer facilement certaines techniques classiques d'obscurcissement des adresses lectroniques, Une capacit qui pourrait tre exploite par des acteurs de la menace



Un dveloppeur a mis en vidence une capacit inattendue de ChatGPT : le chatbot d’IA d’OpenAI serait en mesure de contourner facilement les techniques d’obscurcissement des adresses lectroniques. Elles sont trs souvent utilises pour obscurcir les adresses lectroniques sur les plateformes en ligne, car elles peuvent tre collectes par grattage Web et utilises pour envoyer des courriels non dsirs. Mais le fait que certaines d’entre elles peuvent maintenant tre djoues facilement par ChatGPT, et probablement par ses rivaux, constitue un nouveau risque de scurit pour les internautes. L’exploitation de cette capacit des modles d’IA pourrait nanmoins tre trs coteuse.

Il existe plusieurs raisons pour lesquelles une personne ou entreprise pourrait tre amene obscurcir son adresse lectronique sur certaines plateformes. Par exemple, les techniques d’obscurcissement des adresses lectroniques, comme la modification des caractres (par exemple, le remplacement de « @ » par « at »), sont utilises pour empcher les outils automatiss de grattage Web de collecter facilement les adresses lectroniques. Elles sont employes sur les rseaux sociaux, les forums en ligne, etc. Les personnes affectes peuvent tre la cible de campagnes d’hameonnage de grande envergure, ce qui constitue un risque important de violation de donnes.

Toutefois, le dveloppeur Arnaud Norman a rapport que ChatGPT franchit ces barrires sans effort, mettant en lumire les adresses lectroniques obscurcies avec une prcision remarquable. Norman, qui dveloppe l’outil d’IA « BulkNinja », travaillait sur un projet d’utilisation de l’IA pour organiser des fils de discussion intituls « Ask HN : Who is hiring? » sur la plateforme communautaire Hacker News. Sur ces fils de discussion, des entreprises et startups publient des offres d’emploi et, inversement, les demandeurs d’emploi font leur propre promotion et proposent leurs services. Cependant, le format incohrent rend difficile le tri de la vaste quantit d’informations.

Dans le cadre de son projet, Norman a fait appel ChatGPT. Norman, qui essayait de compiler ces donnes dans Google Sheets afin d’en faciliter l’accs, a demand ChatGPT d’inclure les informations de contact fournies dans les offres d’emploi. Le dveloppeur s’attendait ce qu’il soit difficile d’extraire les contacts obscurcis, mais il a remarqu que ChatGPT a collect les contacts sans aucun problme, mme lorsque certaines des lettres des adresses lectroniques taient remplaces par d’autres caractres. J’ai ralis que si je l’utilisais, je pourrais rendre inutile l’obscurcissement des adresses lectroniques , note le dveloppeur dans un billet de blogue.

Fait fascinant, Norman note que ChatGPT russissait dchiffrer les adresses lectroniques mme lorsque de multiples mthodes d’obscurcissement taient dployes simultanment. Norman a dclar avoir finalement ignor ces donnes. Il a affirm : mme lorsque de multiples mthodes d’obscurcissement ont t employes, le chatbot d’IA a habilement identifi et rcupr les adresses lectroniques prvues avec une prcision remarquable. En fin de compte, j’ai dcid d’exclure les courriels de contact de la feuille Google finale, car les personnes qui dissimulent leurs courriels ne souhaitent manifestement pas qu’ils soient accessibles au public .

L’tendue de cette capacit soulve des questions quant l’efficacit des mthodes d’obscurcissement traditionnelles lorsqu’elles sont confrontes des systmes d’IA avancs tels que ChatGPT. Dans son billet de blogue, Norman a partag quelques techniques intrigantes qu’il a rencontres en examinant les donnes extraites. Outre la « mthode de substitution des caractres », le dveloppeur dit avoir trouv trois autres techniques d’obscurcissement impressionnantes :

Division de l’information dans le message

Selon Norman, cette technique consiste crire une partie de l’adresse lectronique sous la forme « john@company name domain », de sorte que l’adresse lectronique ne soit reconnaissable que lorsqu’elle est associe au nom de l’entreprise dans le message. Norman note que cette mthode tait assez efficace, mais ChatGPT l’aurait facilement djoue lorsqu’il lui a pass l’invite : « penser tape par tape ».

Publication indirecte de l’information

travers cette mthode, l’auteur du message ne publie pas son adresse lectronique, mais indique o vous pouvez la trouver. Le message peut indiquer : pour toute demande de renseignements, veuillez utiliser l’adresse lectronique figurant sur la page d’information sur l’emploi . tant donn que le code de Norman ne comportait pas de fonction de navigation, cette mthode reste valable.

Autre mthode de publication indirecte

Il s’agit de la mme mthode que prcdemment. Par contre, dans ce cas, l’auteur du message crit : l’adresse email est dans mon profil . Il fait ensuite rfrence au profil de Hacker News. Cette mthode a galement t efficace pour les raisons mentionnes ci-dessus. Cette mthode est trs efficace, car il serait coteux d’employer une IA pour parcourir la page la recherche du profil afin de localiser l’adresse lectronique , a dclar Norman.

Commentant cette exprience, il a crit : en rsum, les techniques classiques d’obscurcissement du courrier lectronique, comme la substitution de caractres, sont totalement inefficaces face des modles de langage avancs comme ChatGPT. La bataille pour protger les adresses lectroniques de la collecte automatise semble perdue d’avance, car ces modles possdent une capacit dcoder les diffrentes techniques d’obscurcissement . Il est intressant de noter que si ChatGPT tonne par ses capacits dcoder un message obscurci, de simples scripts permettent galement d’obtenir des rsultats similaires l’aide d’une expression rgulire.

Mais la diffrence fondamentale rside dans l’approche adopte, car ChatGPT s’appuie sur des algorithmes d’IA pour atteindre ses capacits de dcodage. En outre, les implications de la capacit de ChatGPT en matire de dcodage sont considrables. Les organisations et les personnes qui dpendent de la communication par courrier lectronique ont dsormais la possibilit de rvaluer les mthodes qu’ils utilisent pour protger leurs coordonnes. Avec la monte en puissance de modles d’IA tels que ChatGPT, les chercheurs estiment qu’il est essentiel de rester vigilant et d’exprimenter des mesures plus robustes pour protger les informations sensibles.

J’ai utilis ChatGPT pour dcoder des fichiers binaires propritaires de machines industrielles. C’est incroyable comme il peut dchiffrer de telles choses et trouver des modles. Il a d’abord cherch des caractres ASCII, des squences d’octets agissant comme dlimiteurs, puis il a commenc chercher quels octets pouvaient tre la longueur ou quels 4 octets pouvaient tre des nombres en virgule flottante de coordonnes et quel endianness tait le plus logique pour les coordonnes, etc. C’est en effet compltement fou. Je pense sincrement que les gens doivent commencer protger leurs informations sensibles comme ils ne l’avaient jamais fait .

Dans un monde o « cach » ne signifie pas toujours sr, la capacit de dcodage de ChatGPT ouvre la voie une exploration plus pousse et au dveloppement de techniques avances pour remdier aux vulnrabilits potentielles de la scurit du courrier lectronique. Mais dans les commentaires, certains ont soulign que mme si la capacit de ChatGPT dchiffrer des messages obscurcis peut sembler attrayante, il serait trs coteux de l’exploiter. En effet, le cot de l’extraction des adresses lectroniques avec ChatGPT dpasse les revenus gnrs par le grattage Web des adresses lectroniques. Cela n’aura donc pas un grand impact , note un critique.

D’autres critiques ont toutefois rpliqu que les cots d’exploitation pouvaient tre maintenus un faible niveau parce qu’il existe des modles open source capables de fonctionner sur des machines locales. L’exprience de Norman fait cho une tude publie le mois dernier par des chercheurs de l’ETH Zurich, en Suisse. L’tude rvle que les chatbots d’IA tels que ChatGPT peuvent dduire des informations sensibles sur les personnes avec lesquelles ils discutent, mme si la conversation est tout fait banale. Ces informations comprennent la race, le lieu de rsidence, la profession, et bien plus encore. Une menace pour la vie prive des utilisateurs.

L’quipe affirme que cette capacit troublante est « trs problmatique », car les escrocs pourraient l’exploiter pour collecter les donnes sensibles auprs d’utilisateurs peu mfiants. Elle peut aussi tre exploite pour cibler des publicits. Pour l’instant, les chercheurs affirment qu’ils ne savent pas comment rsoudre le problme.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?

Que pensez-vous de la capacit de ChatGPT dcoder les adresses lectroniques obscurcies ?

Quelles pourraient tre les implications de cette capacit des modles de langage comme ChatGPT ?

L’exploitation de cette capacit sera-t-elle trop coteuse comme certains le prtendent ? Pourquoi ?

Quels sont les risques pour les internautes et les entreprises ? Comment peuvent-ils attnuer ces risques ?

Que pensez-vous de la capacit des modles d’IA extraire des informations sensibles de conversations anodines ?

Voir aussi

Une tude affirme que les chatbots d’IA peuvent deviner avec prcision les informations personnelles d’un utilisateur partir de discussions anodines, une menace pour la vie prive des utilisateurs

Au-del des garde-fous : exploration des risques de scurit lis au chatbot d’IA ChatGPT, ces risques comprennent la gnration de services frauduleux et la collecte d’informations nuisibles

Des employs partageraient des donnes professionnelles sensibles avec ChatGPT, ce qui suscite des craintes en matire de scurit, ChatGPT pourrait mmoriser ces donnes et les divulguer plus tard



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.