un rapport actualis et fond sur des donnes probantes concernant la scurit de l’IA avance

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Le rapport scientifique international sur la scurit de l’intelligence artificielle avance (International Scientific Report on the Safety of Advanced AI interim report) prsente une comprhension actualise et fonde sur des donnes scientifiques de la scurit des systmes d’intelligence artificielle avancs. Ce rapport indpendant, international et ouvert tous est un vnement marquant de la collaboration internationale.

C’est la premire fois que la communaut internationale se runit pour soutenir les efforts visant construire une comprhension scientifique commune et fonde sur des preuves des risques lis l’IA avance. L’intention de crer un tel rapport a t annonce lors du Sommet sur la scurit de l’IA en novembre 2023. Ce rapport provisoire est publi avant le Sommet de Soul sur l’IA en mai 2024. Le rapport final sera publi avant le sommet d’action sur l’IA qui se tiendra en France.

Le rapport provisoire se limite un rsum des donnes sur l’IA usage gnral, qui a progress rapidement au cours des dernires annes. Le rapport synthtise les donnes factuelles sur les capacits et les risques de l’IA usage gnral et value les mthodes techniques permettant d’valuer et d’attnuer ces risques.

Le rapport intrimaire met en vidence plusieurs lments cls, notamment :

  • L’IA usage gnral peut tre utilise pour promouvoir l’intrt public, ce qui se traduit par une amlioration du bien-tre, de la prosprit et des dcouvertes scientifiques.
  • Selon de nombreux indicateurs, les capacits de l’IA usage gnral progressent rapidement. Les chercheurs ne s’accordent pas sur la question de savoir si des progrs significatifs ont t raliss sur des dfis fondamentaux tels que le raisonnement causal.
  • Les experts ne s’accordent pas sur le rythme attendu des progrs futurs des capacits de l’IA usage gnral, soutenant diversement la possibilit de progrs lents,

    rapides ou extrmement rapides.
  • La comprhension des capacits et du fonctionnement interne des systmes d’IA usage gnral est limite. L’amlioration de notre comprhension devrait tre une priorit.
  • Comme toutes les technologies puissantes, l’IA usage gnral actuelle et future peut tre utilise pour causer des dommages. Par exemple, des acteurs malveillants peuvent utiliser l’IA pour mener des oprations de dsinformation et d’influence grande chelle, des fraudes et des escroqueries.
  • Les dysfonctionnements de l’IA usage gnral peuvent galement causer des dommages, par exemple en prenant des dcisions biaises par rapport des caractristiques protges telles que la race, le sexe, la culture, l’ge et le handicap.
  • Les progrs futurs de l’IA usage gnral pourraient poser des risques systmiques, notamment la perturbation du march du travail et les ingalits de pouvoir conomique. Les experts ont des avis divergents sur le risque que l’humanit perde le contrle de l’IA d’une manire qui pourrait avoir des consquences catastrophiques.
  • Plusieurs mthodes techniques (notamment l’talonnage des performances, le red-teaming et l’audit des donnes de formation) peuvent contribuer attnuer les risques, bien que toutes les mthodes actuelles aient des limites et que des amliorations soient ncessaires.

L’avenir de l’IA est incertain, avec un large ventail de scnarios possibles. Les dcisions des socits et des gouvernements auront un impact significatif sur son avenir.

Le rapport souligne la ncessit de poursuivre les efforts de collaboration internationale en matire de recherche et de partage des connaissances sur ces technologies en volution rapide. L’approche adopte a t dlibrment inclusive des diffrents points de vue et perspectives, et les zones d’incertitude, de consensus ou de dsaccord sont mises en vidence, ce qui favorise la transparence.

tat de la scurit de l’intelligence artificielle avance

Ce rapport scientifique international provisoire sur la scurit de l’IA avance constate que la trajectoire future de l’IA usage gnral est remarquablement incertaine.

Un large ventail de rsultats possibles semble envisageable, mme dans un avenir proche, y compris des rsultats trs positifs et trs ngatifs, ainsi que tout ce qui se situe entre les deux.

Parmi les perspectives les plus prometteuses de l’IA usage gnral, on peut citer son potentiel pour l’ducation, les applications mdicales, les progrs de la recherche dans un large ventail de domaines, et l’augmentation de la productivit conduisant une plus grande prosprit. S’ils sont grs correctement, les systmes d’IA usage gnral pourraient amliorer considrablement la vie des gens dans le monde entier.

Mais pour rcolter les fruits de cette technologie transformatrice en toute scurit, les chercheurs et les dcideurs politiques doivent identifier les risques qui l’accompagnent et prendre des mesures en connaissance de cause pour les attnuer. L’utilisation malveillante de l’IA usage gnral ainsi que les dysfonctionnements de l’IA usage gnral causent dj des dommages aujourd’hui, par exemple par le biais de deepfakes, d’escroqueries et de rsultats biaiss.

En fonction du rythme de progression des futures capacits de l’IA usage gnral, des mthodes techniques employes par les dveloppeurs et les rgulateurs pour attnuer les risques, des dcisions des gouvernements et des socits concernant l’IA usage gnral, et du degr de russite de la coordination mondiale, il est galement possible que d’autres risques apparaissent. Dans le pire des cas, on pourrait assister l’mergence de risques tels que le chmage grande chelle, le terrorisme gnralis par l’IA ou mme la perte de contrle de l’humanit sur les systmes d’IA usage gnral. Les experts ne s’accordent pas sur la probabilit de ces risques ni sur le moment o ils pourraient se produire.

Le prsent rapport examine galement les facteurs qui rendent difficile la prise en compte de ces risques. Malgr les progrs rapides des capacits, les chercheurs ne peuvent actuellement pas produire des comptes rendus comprhensibles par l’homme sur la manire dont les modles et les systmes d’IA usage gnral parviennent des rsultats et des dcisions. Il est donc difficile d’valuer ou de prdire ce dont ils sont capables, leur degr de fiabilit et d’obtenir des garanties sur les risques qu’ils pourraient poser.

Il existe des approches techniques pour traiter les risques lis l’IA usage gnral : des mthodes pour rduire les biais des modles, amliorer notre comprhension du fonctionnement interne des modles d’IA usage gnral, valuer leurs capacits et les risques potentiels, et les rendre moins susceptibles de rpondre des demandes d’utilisateurs qui pourraient causer des dommages. Il existe galement des techniques complmentaires pour surveiller et attnuer les actions nuisibles des systmes d’IA usage gnral. Toutefois, aucune technique existante ne fournit actuellement de garanties quantitatives quant la scurit des modles ou systmes avancs d’IA usage gnral.

L’avenir de l’IA n’est pas inluctable. La manire dont l’IA usage gnral est dveloppe et par qui, les problmes qu’elle est cense rsoudre, la question de savoir si on sera en mesure de tirer pleinement parti du potentiel conomique de l’IA usage gnral, qui en bnficie et les types de risques auxquels on est expos – ces questions et bien d’autres encore dpendent des choix que les socits et les gouvernements font aujourd’hui et l’avenir pour faonner le dveloppement de l’IA usage gnral.

tant donn que l’impact de l’IA usage gnral sur de nombreux aspects de notre vie sera probablement profond et que les progrs pourraient continuer tre rapides, le principe de prcaution implique un besoin urgent de parvenir un consensus et de consacrer des ressources la comprhension et la prise en compte de ces risques. Un dbat scientifique et public constructif sera essentiel pour que les socits et les dcideurs politiques puissent faire les bons choix.

Le rapport provisoire conclue :

Pour la premire fois dans l’histoire, ce rapport provisoire a runi des reprsentants d’experts nomms par 30 pays, l’UE et les Nations unies, ainsi que plusieurs autres experts de renomme mondiale, afin de fournir une base scientifique commune, fonde sur des preuves, pour ces discussions vitales. Nous restons en dsaccord sur plusieurs questions, mineures et majeures, concernant les capacits, les risques et les mesures d’attnuation des risques de l’IA usage gnral. Mais nous considrons que ce projet est essentiel pour amliorer notre comprhension collective de l’IA usage gnral et de ses risques potentiels, et pour nous rapprocher d’un consensus et d’une attnuation efficace des risques afin de garantir que les gens puissent profiter des avantages de l’IA usage gnral en toute scurit. Les enjeux sont importants. Nous nous rjouissons de poursuivre cet effort.

Informations gnrales

Le rapport a t command par le gouvernement britannique et prsid par Yoshua Bengio, universitaire spcialiste de l’IA laurat du prix Turing et membre du conseil consultatif scientifique des Nations unies. Les travaux ont t superviss par un groupe consultatif international d’experts compos de 30 pays, dont le Royaume-Uni et des reprsentants des nations invites au sommet sur la scurit de l’IA Bletchley Park en 2023, ainsi que des reprsentants de l’Union europenne et des Nations unies.

L’objectif du rapport est de favoriser une comprhension commune, scientifique et actualise de la scurit des systmes d’IA avancs, et de dvelopper cette comprhension au fil du temps. Pour ce faire, le rapport rassemble les pays leaders mondiaux en matire d’IA et la meilleure expertise mondiale en matire d’IA afin d’analyser les meilleures recherches scientifiques existantes sur les capacits et les risques de l’IA. Cette publication alimentera les discussions qui auront lieu lors du sommet de Soul sur l’IA en mai 2024.

Source : International Scientific Report on the Safety of Advanced AI : INTERIM REPORT

Et vous ?

Pensez-vous que ce rapport est crdible ou pertinent ?

Quel est votre avis sur le sujet ?

Voir aussi :

L’quilibre dlicat entre scurit et innovation dans l’IA : bannir les modles « open weights » serait un dsastre selon un chercheur. L’administration Biden envisage de bloquer l’accs ces modles afin d’viter les abus

L’IA va accrotre le nombre et l’impact des cyberattaques : les ransomwares tant susceptibles d’en tre les plus grands bnficiaires au cours des deux prochaines annes

2023, l’anne de l’IA ? L’anne a t marque par l’mergence de l’IA gnrative, une explosion des investissements dans le domaine et l’acclration dans les lgislations



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.