Intelligence artificielle, anxiété réelle : pourquoi nous sommes …

Intelligence artificielle, anxiété réelle : pourquoi nous sommes ...



Est-ce une IA qui a écrit cet article ?

Ce genre de question était une plaisanterie lorsque l’intelligence artificielle générative est apparue dans les médias a commencé son incursion dans l’opinion publique. Deux ans plus tard, alors que de nombreuses personnes utilisent l’IA Gen pour toutes sortes d’activités, d’autres soulèvent des questions importantes sur l’impact à long terme de cette technologie émergente.

Le mois dernier, des fans du groupe sud-coréen populaire Seventeen ont contesté un article de la BBC qui laissait entendre – à tort – que le groupe avait utilisé l’IA pour composer ses chansons. Woozi, membre du groupe et principal créateur de la plupart des chansons, a déclaré aux journalistes qu’il avait expérimenté l’IA pour comprendre le développement de cette technologie. Et en identifier les avantages et les inconvénients.

L’IA est-elle un danger pour la créativité musicale ?

La BBC a mal interprété ces propos. Et à suggéré que Seventeen avait utilisé l’IA pour son dernier album. Sans surprise, l’erreur a provoqué un tollé, les fans se sentant particulièrement touchés, surtout que Seventeen a toujours été présenté comme un groupe indie. Ses 13 membres participent à l’écriture des chansons, à la production musicale et à la chorégraphie.

Leurs fans ont considéré que l’IA discrédite la créativité du groupe. « Seventeen écrit, produit, chorégraphie ! Ils sont talentueux… et n’ont absolument pas besoin d’IA ou de quoi que ce soit d’autre », a déclaré un fan sur X. Un autre a décrit l’IA comme une insulte aux efforts et au succès du groupe.

L’épisode a incité Woozi à publier sur ses Stories Instagram le message suivant : « Toute la musique de Seventeen est écrite et composée par des créateurs humains ».

Femmes, paix et sécurité

Bien sûr, l’IA perçue comme un affront à la créativité humaine n’est pas la seule préoccupation concernant l’impact de cette technologie sur notre monde.

Les problèmes systémiques liés à l’IA pourraient – potentiellement – menacer la sécurité et le bien-être d’une grande partie de la population mondiale.

En particulier, à mesure que la technologie est adoptée, l’IA peut mettre en danger la sécurité des femmes, selon une étude récente de l’ONU. L’étude note que les préjugés sexistes des systèmes d’IA les plus répandus restent un problème.

Accélération du processus de désinformation

L’étude de mai 2024 a analysé les liens entre l’IA, la sécurité numérique et les questions relatives aux femmes, à la paix et à la sécurité. « Si l’utilisation de l’IA à des fins pacifiques peut avoir de multiples avantages, comme l’amélioration de l’inclusivité et l’efficacité de la prévention des conflits, elle est utilisée de manière inégale entre les sexes. Et les préjugés sexistes rendent les femmes moins susceptibles de bénéficier de ces technologies », indique le rapport.

Selon le rapport, des efforts devraient être faits pour atténuer les risques liés à l’utilisation des systèmes d’IA, en particulier sur les médias sociaux et dans des outils tels que les chatbots et les applications mobiles. La recherche note que les outils permettant de créer des textes, des images et des vidéos ont été largement diffusés sans tenir compte de leurs implications sur les problématiques de genre.

« L’intelligence artificielle a bénéficié de la publication de grands modèles linguistiques (LLM) tels que ChatGPT, qui permettent de demander un texte dont le ton, les valeurs et le format peuvent être calibrés. Cela risque d’accélérer le processus de désinformation en facilitant la création rapide de contenus à grande échelle. Elle permet également de créer très facilement des robots pour médias sociaux qui partagent intentionnellement des contenus polarisants, haineux et misogynes. »

Quand 100 faux récits sont soumis à ChatGPT, il produit de fausses affirmations dans 80 % des cas

La recherche cite une étude de 2023 dans laquelle des chercheurs de l’Association for Computational Linguistics ont constaté que quand 100 faux récits étaient soumis à ChatGPT, il produisait de fausses affirmations dans 80 % des cas.

Le rapport de l’ONU souligne aussi les risques liés à la production de vidéos et d’images. « Les systèmes d’IA générateurs d’images produisent facilement des contenus misogynes, notamment en créant des corps sexualisés pour les femmes », note le rapport.

« Ces technologies ont permis de créer facilement de fausses vidéos (deepfake) de n’importe qui basées uniquement sur des références photographiques. Cela suscite de vives inquiétudes chez les femmes, qui peuvent être montrées dans de fausses vidéos sexualisées. Cela peut avoir des répercussions sur leur réputation tout au long de leur vie. »

Quand les craintes du monde réel se déplacent en ligne

Une étude réalisée en janvier 2024 par le spécialiste de la sécurité de l’information CyberArk suggère également que les inquiétudes concernant l’intégrité des identités numériques sont en hausse. L’enquête menée auprès de 2 000 employés au Royaume-Uni montre que 81 % d’entre eux craignent que leur image soit volée ou utilisée pour mener des cyberattaques. 46 % s’inquiètent de l’utilisation de leur image dans des « deepfakes ».

Plus précisément, 81 % des femmes craignent que des cybercriminels utilisent l’IA pour voler des données confidentielles par le biais d’escroqueries numériques. Contre 74 % pour les hommes. Les femmes sont également plus nombreuses (46 %) à s’inquiéter de l’utilisation de l’IA pour créer des « deepfakes ». Alors que 38 % des hommes sont de cet avis.

J’ai rencontré Eduarda Camacho, directrice de l’exploitation de CyberArk. Notre discussion a porté sur les raisons pour lesquelles les femmes sont plus inquiètes que les hommes au sujet de l’IA.

La grande épidémie des deepfakes

Mme Camacho dit que les femmes sont peut-être plus conscientes des risques en ligne. Et que ces préoccupations pourraient être le reflet des vulnérabilités que certaines femmes ressentent hors ligne. Selon elle, les femmes sont aussi plus ciblées et exposées aux abus en ligne et à la désinformation sur les plateformes de médias sociaux.

L’inquiétude n’est pas infondée non plus. Selon Mme Camacho, l’IA peut avoir un impact significatif sur les identités en ligne.

En particulier, les deepfakes peuvent être de plus en plus difficiles à détecter. Alors que 70 % des organisations sont convaincues que leurs employés peuvent identifier les deepfakes de leur équipe dirigeante, M. Camacho dit que ce chiffre est probablement surestimé.

L’exemple d’Elon Musk

La semaine dernière, une étude a révélé que les affirmations d’Elon Musk sur les élections américaines – affirmations signalées comme fausses ou trompeuses – avaient été vues près de 1,2 milliard de fois sur sa plateforme de médias sociaux X, selon une étude du Center for Countering Digital Hate (CCDH).

Entre le 1er janvier et le 31 juillet, le CCDH a analysé les messages de Musk concernant les élections et en a identifié 50 que les fact-chekers avaient démystifiés.

Le message de M. Musk sur un clip audio généré par l’IA et mettant en scène la candidate à l’élection présidentielle américaine Kamala Harris a été vu au moins 133 millions de fois. Le message n’était pas accompagné d’une étiquette d’avertissement, ce qui enfreint la politique de la plateforme qui stipule que les utilisateurs ne doivent pas « partager des médias synthétiques, manipulés ou hors contexte qui peuvent tromper les gens et conduire à un préjudice », a déclaré le CCDH.

Alors que faire ?

Tout d’abord, nous devons dépasser l’idée fausse selon laquelle l’IA est la solution à tous les défis. Les entreprises commencent tout juste à dépasser cette croyance, et s’efforcent de déterminer la valeur réelle de l’IA.

Nous devons également comprendre que, malgré le désir de gagner en productivité grâce à l’IA, un certain niveau de créativité humaine reste plus important que l’IA. C’est la leçon que nous enseigne Seventeen et les fans du groupe.

Pour certains, cependant, l’IA est considérée comme un moyen de franchir les barrières linguistiques. Le boys band irlandais Westlife, par exemple, a publié son premier titre en mandarin, interprété par ses avatars vocaux générés par l’IA et baptisé AI Westlife. La chanson a été créée en partenariat avec Tencent Music Entertainment Group.

Plus important encore, comme le préconise le rapport des Nations unies, les gouvernements devront mettre en place les réglementations appropriées. Et ils doivent le faire rapidement avant que l’emprise de l’IA ne devienne incontrôlable.

Source : « ZDNet.com »



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.