« Vous ne pouvez pas croire toutes les vidos que vous voyez », selon Brad Smith, vice-prsident de Microsoft Il explique comment lutter contre le contenu abusif de l’IA et les deepfakes malveillants

Microsoft Defender Threat Intelligence pour cartographier l'internet, et Microsoft Defender External Attack Surface Management



Microsoft a dcouvert que ses propres outils taient utiliss par des acteurs malveillants dans un pisode rcemment mdiatis. Microsoft indique dans un billet de blog que l’entreprise « s’est engage adopter une approche solide et globale« , citant six domaines d’action diffrents. Brad Smith, le vice-prsident de Microsoft crit que « nous devons agir de toute urgence pour lutter contre tous ces problmes« .

Nous assistons actuellement une expansion rapide de l’utilisation abusive des nouveaux outils d’IA par des acteurs malveillants« , crit Brad Smith, vice-prsident de Microsoft, « notamment par le biais de deepfakes bass sur des vidos, des sons et des images gnrs par l’IA« . Cette tendance fait peser de nouvelles menaces sur les lections, la fraude financire, le harclement par le biais de la pornographie non consensuelle et la nouvelle gnration de cyberintimidation.

Chaque jour, des millions de personnes utilisent de puissants outils d’IA gnrative pour stimuler leur expression crative. bien des gards, l’IA offrira chacun des possibilits passionnantes de donner vie de nouvelles ides. Toutefois, mesure que ces nouveaux outils sont commercialiss par Microsoft et l’ensemble du secteur technologique, on doit prendre de nouvelles mesures pour nous assurer que ces nouvelles technologies rsistent aux abus.

L’histoire de la technologie montre depuis longtemps que la crativit n’est pas l’apanage des personnes bien intentionnes. Les outils deviennent malheureusement aussi des armes, et ce schma se rpte. On assiste actuellement une expansion rapide de l’utilisation abusive de ces nouveaux outils d’IA par des acteurs malveillants, notamment par le biais de « deepfakes » bass sur des vidos, des sons et des images gnrs par l’IA. Cette tendance fait peser de nouvelles menaces sur les lections, la fraude financire, le harclement par la pornographie non consensuelle et la nouvelle gnration de cyberintimidation.

On doit agir de toute urgence pour lutter contre tous ces problmes. Voici l’approche de Microsoft pour lutter contre les contenus abusifs gnrs par l’IA :

Il est encourageant de constater que nous pouvons tirer de nombreux enseignements de notre exprience en tant qu’industrie dans des domaines adjacents : faire progresser la cyberscurit, promouvoir la scurit des lections, lutter contre les contenus extrmistes violents et protger les enfants. En tant qu’entreprise, nous nous engageons adopter une approche solide et globale qui protge les personnes et nos communauts, en nous appuyant sur six domaines d’action :

  1. Une architecture de scurit solide. Nous nous engageons adopter une approche technique globale fonde sur la scurit ds la conception. Selon le scnario, une architecture de scurit solide doit tre applique au niveau de la plateforme d’IA, du modle et des applications. Elle comprend des aspects tels que l’analyse continue de l’quipe rouge, les classificateurs premptifs, le blocage des invites abusives, les tests automatiss et l’interdiction rapide des utilisateurs qui abusent du systme. Elle doit s’appuyer sur une analyse de donnes solide et tendue. Microsoft a mis en place une architecture solide et partag ses connaissances par le biais de ses normes en matire d’IA responsable et de scurit numrique, mais il est clair que nous devrons continuer innover dans ces domaines au fur et mesure que la technologie volue.
  2. Provenance durable des mdias et filigrane. C’est essentiel pour lutter contre les « deepfakes » dans la vido, les images ou l’audio. L’anne dernire, lors de notre confrence Build 2023, nous avons annonc des capacits de provenance des mdias qui utilisent des mthodes cryptographiques pour marquer et signer le contenu gnr par l’IA avec des mtadonnes sur sa source et son historique. Avec d’autres grandes entreprises, Microsoft a jou un rle de premier plan dans la recherche et le dveloppement de mthodes d’authentification de la provenance, notamment en tant que cofondateur du projet Origin et de l’organisme de normalisation Coalition for Content Provenance and Authenticity (C2PA). La semaine dernire, Google et Meta ont pris des mesures importantes pour soutenir la C2PA, mesures que nous apprcions et applaudissons.

    Nous utilisons dj la technologie de provenance dans les outils de cration d’images Microsoft Designer dans Bing et dans Copilot, et nous sommes en train d’tendre la provenance des mdias tous nos outils qui crent ou manipulent des images. Nous tudions galement activement les techniques de filigrane et d’empreinte digitale qui contribuent renforcer les techniques de provenance. Nous nous engageons poursuivre l’innovation afin d’aider les utilisateurs dterminer rapidement si une image ou une vido a t gnre ou manipule par l’IA.

  3. Protger nos services contre les contenus et les comportements abusifs. Nous nous engageons protger la libert d’expression. Mais cela ne devrait pas protger les individus qui cherchent imiter la voix d’une personne pour escroquer l’argent d’une personne ge. Elle ne doit pas s’tendre aux « deepfakes » qui modifient les actions ou les dclarations de candidats politiques pour tromper le public. Elle ne doit pas non plus protger un cyber-homme de main ou un distributeur de pornographie non consensuelle. Nous nous engageons identifier et supprimer les contenus trompeurs et abusifs de ce type lorsqu’ils se trouvent sur nos services hbergs destins aux consommateurs, tels que LinkedIn, notre rseau de jeux et d’autres services pertinents.
  4. Une collaboration solide entre les entreprises et avec les gouvernements et la socit civile. Bien que chaque entreprise soit responsable de ses propres produits et services, l’exprience montre que c’est souvent lorsque nous travaillons ensemble pour un cosystme numrique plus sr que nous obtenons les meilleurs rsultats. Nous nous engageons travailler en collaboration avec d’autres acteurs du secteur technologique, notamment dans les domaines de l’IA gnrative et des mdias sociaux. Nous nous engageons galement dployer des efforts proactifs avec les groupes de la socit civile et collaborer de manire approprie avec les gouvernements.

    Pour aller de l’avant, nous nous appuierons sur notre exprience de la lutte contre l’extrmisme violent dans le cadre de l’appel de Christchurch, sur notre collaboration avec les forces de l’ordre par l’intermdiaire de notre unit de lutte contre la criminalit numrique, et sur nos efforts pour mieux protger les enfants dans le cadre de l’alliance mondiale WeProtect et d’une manire plus gnrale. Nous sommes dtermins prendre de nouvelles initiatives dans l’ensemble du secteur technologique et avec d’autres groupes de parties prenantes.

  5. Une lgislation modernise pour protger les personnes contre l’utilisation abusive des technologies. Il est dj vident que certaines de ces nouvelles menaces ncessiteront l’laboration de nouvelles lois et de nouveaux efforts de la part des forces de l’ordre. Nous sommes impatients de contribuer aux ides et de soutenir les nouvelles initiatives des gouvernements du monde entier, afin de mieux protger les internautes tout en respectant des valeurs intemporelles telles que la protection de la libert d’expression et de la vie prive.
  6. Sensibilisation et ducation du public. Enfin, une dfense solide ncessitera un public bien inform. l’approche du deuxime quart du XXIe sicle, la plupart des gens ont appris qu’il ne faut pas croire tout ce que l’on lit sur l’internet (ou ailleurs). Une combinaison de curiosit et de scepticisme bien inform est une comptence essentielle pour tout le monde.

    De la mme manire, nous devons aider les gens reconnatre qu’il ne faut pas croire toutes les vidos que l’on voit ou tous les sons que l’on entend. Nous devons aider les gens apprendre reprer les diffrences entre un contenu lgitime et un contenu falsifi, y compris en ce qui concerne le filigrane. Cela ncessitera de nouveaux outils et programmes d’ducation du public, notamment en troite collaboration avec la socit civile et les dirigeants de l’ensemble de la socit.

En fin de compte, rien de tout cela ne sera facile. Il faudra dployer des efforts difficiles mais indispensables chaque jour. Mais avec un engagement commun en faveur de l’innovation et de la collaboration, nous pensons que nous pouvons tous travailler ensemble pour faire en sorte que la technologie reste en tte dans sa capacit protger le public. Peut-tre plus que jamais, tel doit tre notre objectif collectif.

Source : Brad Smith, vice-prsident de Microsoft

Et vous ?

Pensez-vous que cette approche de Microsoft est crdible ou pertinente ?

Quel est votre avis sur le sujet ?

Voir aussi :

Les entreprises technologiques prvoient de signer un accord pour lutter contre les fraudes lectorales gnres par l’IA, alors que des tentatives d’ingrence lectorale par l’IA ont dj eu lieu

Microsoft comble la lacune qui a caus l’incident « Taylor Swift », avec plus de protections pour Designer. Le gnrateur d’images par IA tait utilis pour produire des images pornographiques

Confrence dveloppeurs et IT Pro Ignite 2023 : Microsoft dvoile sa stratgie pour l’IA, le Cloud, et la scurit, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.