ce moratoire inattendu demandé par le secteur de l’IA

Stop


Des dirigeants et experts du secteur de l’intelligence artificielle appellent dans une lettre ouverte à faire six mois de pause dans leur recherche dans l’IA. La raison : des « risques profonds pour la société et l’Humanité » que posent ces systèmes.

Trop vite, trop dangereux pour l’Humanité : voilà une lettre pour le moins inattendue publiée ce mercredi 29 mars, signée par des milliers de personnes dont des dirigeants du monde de la tech et de l’intelligence artificielle (IA) comme Elon Musk et des experts du secteur. Tous appellent à un moratoire de six mois, à une pause salutaire pour l’Humanité, en exhortant tous les centres de recherche du monde à cesser immédiatement leur travail sur ces systèmes avancés.  « Nous demandons à tous les laboratoires d’intelligence artificielle d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’intelligence artificielle plus puissants que le GPT-4 », écrivent-ils en préambule.

« Les systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », ajoutent-ils dans cette lettre, publiée par l’organisation à but non lucratif Future of Life Institute. Ce mercredi 29 mars en début d’après-midi, 1123 personnes l’avaient signée, dont des figures de la tech et de l’IA comme le patron de Tesla et de Twitter Elon Musk, le cofondateur d’Apple Steve Wozniak, des chercheurs de DeepMind, propriété d’Alphabet – la maison-mère de Google, ou encore des figures de l’IA comme Yoshua Bengio, Stuart Russell ou encore Gary Marcus. Ces personnes demandent à ce que des protocoles de sécurité, éthiques et transparents, soient développés, mis en œuvre et vérifiés par des experts indépendants, avant que tout développement ne reprenne.

« Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? »

Parmi les risques invoqués, la lettre est particulièrement alarmiste, mettant en avant celui « de perdre le contrôle de notre civilisation ».  Ces « derniers mois, les laboratoires d’IA (se sont) enfermés dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants, et que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », écrivent ses auteurs. Ils invitent tous les groupes de recherche qui travaillent sur le sujet à travailler main dans la main avec les autorités de régulation.

La lettre prend aussi soin de mentionner les conséquences concrètes que l’IA pourrait avoir sur notre société, en se demandant : « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants », comme ceux qui nous donnent un sentiment d’accomplissement ? De quoi faire écho à une question simple, posée il y a plusieurs semaines par Susie Alegre, une auteure britannique victime d’un plagiat : « Pourquoi ne pas utiliser l’IA seulement pour remplacer les choses que nous n’aimons pas faire ? »

À lire aussi : ChatGPT : le nombre effrayant d’emplois menacés par l’IA, selon Goldman Sachs

La lettre sera-t-elle suivie d’effets ?

« La lettre n’est pas parfaite, mais l’esprit est juste : nous devons ralentir jusqu’à ce que nous comprenions mieux les ramifications » (de l’IA), a déclaré le professeur Gary Marcus, un des signataires de la lettre, à nos confrères de Reuters, ce mercredi 29 mars. Cette lettre sera-t-elle suivie d’effets ? Les entreprises qui se livrent actuellement à une véritable course à l’IA vont-elles prendre le risque de se faire dépasser durant cet arrêt de six mois ? La lettre demande en tous les cas à ce que cette pause soit « publique et vérifiable ». Et si « une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire », est-il écrit.

À lire aussi : Une IA est soupçonnée d’avoir poussé un homme au suicide

La lettre s’ajoute à de nombreux autres appels, pour l’instant vains, à la mesure, à la réflexion et au contrôle de ces systèmes. Ce mercredi, Interpol, la police de l’UE, mettait en garde contre l’utilisation potentiellement abusive de ChatGPT dans des tentatives d’hameçonnage, de désinformation et de cybercriminalité. L’ensemble de ces appels pourrait, à terme, affaiblir la position actuelle de la majorité des entreprises travaillant dans le secteur de l’IA – une position décrite par The Verge comme le  « ship it now and fix it later », qu’on pourrait traduire par  « on se lance maintenant, et on réparera (si nécessaire plus tard) ». Problème : avec l’IA, cette « réparation » pourrait être impossible.

 

Source :

Lettre ouverte de Future of Life Institute



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.