le nouvel appel mondial à adopter des « lignes rouges avant qu’il ne soit trop tard » sonnera-t-il dans le vide ?

le nouvel appel mondial à adopter des « lignes rouges avant qu'il ne soit trop tard » sonnera-t-il dans le vide ?


Une nouvelle lettre ouverte, appelant à définir des gardes-fous pour l’intelligence artificielle, a été lancée lundi 22 septembre devant les Nations Unies. Malgré sa liste impressionnante de signataires, connaîtra-t-elle le même sort que les précédents appels ou initiatives, qui ont tous fini par n’accoucher… que d’une souris ?

Un nouvel appel à fixer des limites à l’intelligence artificielle (IA) avant fin 2026 a été lancé lundi 22 septembre, lors de la 80e Assemblée générale des Nations Unies. Le texte a été signé par plus de 200 personnalités et 70 organisations. Parmi elles, on retrouve comme lors d’un appel similaire en 2023 les deux « parrains de l’IA », Geoffrey Hinton et Yoshua Bengio. En font aussi partie des chercheurs en IA et cadres provenant d’OpenAI (l’entreprise à l’origine de ChatGPT), de Google DeepMind ou d’Anthropic, des organisations comme Reporters sans frontières ou France Deeptech, ainsi que d’anciens chefs d’État et des députés européens.

Comme lors de précédents appels, le ton de la lettre est alarmiste. Parce que « la trajectoire actuelle de l’IA présente des dangers sans précédent », « un accord international sur des lignes rouges claires et vérifiables est nécessaire », plaident ses auteurs. Les décideurs politiques doivent adopter des « lignes rouges » internationales contraignantes d’ici la fin de 2026, martèlent ses signataires. La lettre a été initiée par le Centre français pour la sécurité de l’IA (CeSIA), la Future Society et le « Center for Human-Compatible Artificial Intelligence » de l’université de Berkeley, 

« L’objectif n’est pas de réagir après qu’un incident majeur s’est produit »

L’appel suggère que dans le passé, d’autres « lignes rouges » mondiales ont été définies, à l’image de traités internationaux interdisant les armes biologiques et nucléaires, ou le clonage humain. En matière d’IA, une résolution de l’Assemblée générale des Nations Unies pourra être initiée d’ici fin 2026, une première étape avant les négociations d’un traité mondial en bonne et due forme, estiment-ils.

Pour Charbel-Raphaël Segerie, directeur exécutif du Centre français pour la sécurité de l’IA (CeSIA) qui s’exprimait lors d’un point presse, « l’objectif n’est pas de réagir après qu’un incident majeur s’est produit… mais de prévenir les risques à grande échelle et potentiellement irréversibles avant qu’ils ne se produisent ».

« L’IA pourrait bientôt démultiplier des risques comme la création de pandémies, la désinformation à grande échelle, la sécurité nationale et internationale, le chômage de masse et les violations des droits de l’homme systémiques », listent les auteurs de la lettre. Or,  « si les nations ne parviennent pas encore à s’accorder sur ce qu’elles veulent faire avec l’IA, elles doivent au moins s’accorder sur ce que l’IA ne doit jamais faire », a indiqué Charbel-Raphaël Segerie.

Un énième appel à réguler l’IA ?

Ce n’est pas la première fois qu’un tel appel est lancé. Depuis le début de la vague de l’IA générative, ces initiatives se sont multipliées, la plus célèbre et médiatisée étant celle de 2023 appelant à un moratoire de six mois, au ton encore plus alarmiste.

À lire aussi : L’IA est-elle dangereuse pour l’Humanité ? Elon Musk et des centaines de scientifiques réclament une pause dans la recherche 

Malgré la volonté de mettre en place « un code de conduite » commun entre l’UE et les États-Unis, ou encore un pacte IA (l’initiative 100 % européenne initiée par Thierry Breton), seuls de rares gardes fous ont, en deux ans, été adoptés.

À lire aussi : Code de conduite, pacte, agence internationale… Comment les initiatives visant à réguler l’IA se multiplient 

Au sein de l’Union européenne (UE), le règlement européen sur l’IA interdit certaines utilisations jugées « inacceptables », comme l’utilisation de l’IA pour du scoring social. La Chine a aussi adopté une législation nationale. Un accord entre Washington et Pékin prévoit également que les armes nucléaires doivent rester sous contrôle humain, et non sous contrôle de l’IA.

À noter aussi la plus méconnue « Convention cadre sur l’IA », une sorte de traité international des droits de l’homme et de la démocratie sur l’IA négocié entre une cinquantaine de pays dont l’UE, les États-Unis et le Canada. Chaque État doit encore l’adopter au niveau national.

À lire aussi : Les « droits de l’Homme de l’IA » sont en train d’être négociés, vous devriez vous y intéresser

De leur côté, certaines entreprises du secteur de l’IA ont montré patte blanche, jouant parfois les bons élèves en signant divers engagements volontaires aux États-Unis, au Royaume-Uni ou au sein de l’Union européenne.

Mais hormis ces textes à portée nationale, régionale ou non obligatoires, toutes les initiatives internationales se sont pour l’instant limitées à des débuts de déclarations de bonne intention. Et pour de nombreux experts, sans règles contraignantes, les entreprises lancées dans cette course à l’IA privilégieront toujours leurs intérêts commerciaux sur la sécurité publique.

Un organisme indépendant de contrôle à créer

La sécurité n’est pas le seul problème soulevé par les spécialistes. Récemment, le rôle présumé d’un agent conversationnel IA dans le suicide d’un adolescent, voire d’un meurtre, a pointé du doigt l’impact possible de cette technologie sur la santé mentale.

À lire aussi : Aux États-Unis, ChatGPT est accusé d’être impliqué dans un meurtre

Et loin de se limiter à ces drames, les risques actuels liés à l’IA pourraient rapidement être éclipsés par des risques plus dévastateurs et plus importants, alertent les auteurs de la lettre ouverte.

Ces derniers préconisent que le futur accord définisse une liste claire d’interdictions, en plus de mettre en place des mécanismes de vérification et de créer un organisme indépendant.

Pour Niki Iliadis, directrice de la gouvernance mondiale de l’IA à The Future Society, il faut pour le secteur de l’IA une institution mondiale indépendante « dotée de pouvoirs réels ». Cette dernière devra définir, surveiller et faire respecter les lignes rouges.

Intégrer la sécurité dès le départ

« Tout comme les développeurs de l’énergie nucléaire n’ont pas construit de centrales nucléaires avant d’avoir une idée de la manière d’empêcher leur explosion, l’industrie de l’IA doit choisir une voie technologique différente, qui intègre la sécurité dès le départ, et nous devons savoir qu’ils le font », a plaidé de son côté Stuart Russell, professeur d’informatique à l’université de Berkeley qui s’exprimait pendant la conférence de presse.

Devançant les critiques, le chercheur dans le domaine de l’IA a ajouté que « les lignes rouges n’entravent pas le développement économique ou l’innovation, comme le prétendent certains détracteurs de la réglementation de l’IA ».

Reste à savoir si les pays comme les États-Unis, qui abritent la majorité des nouveaux géants de l’IA, et qui ont pour président un grand adepte de la dérégulation, soutiendront une telle démarche.

À lire aussi : 10 ans sans réguler l’IA : aux États-Unis, un projet de loi controversé en passe d’être adopté 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.