Les intelligences artificielles génératives ont envahi l’Internet et bousculent les codes par leurs capacités de création et d’automatisation de traitement de l’information. Certains chercheurs sont même en quête d’une étincelle d’intelligence artificielle globale qui amènerait à la singularité technologique, quand l’IA arrivera à égalité avec le cerveau humain, pas seulement dans une activité précise.
Ces progrès mis en lumière par les différents projets d’IA génératives, à commencer par ChatGPT qui a ouvert une boîte de Pandore jusque-là essentiellement limitée aux laboratoires de recherche, peuvent inquiéter sur leurs conséquences pour l’humanité, de sa transformation par ces nouveaux outils jusqu’à sa survie si l’IA se mettait à nous considérer comme des nuisances.
Des centaines de chercheurs ont diffusé une lettre ouverte réclamant une pause de six mois dans le développement des IA avancées pour prendre le temps de poser un cadre qui permettrait de poursuivre les travaux dans un contexte positif pour l’humanité et en canalisant les dérives potentielles.
Croire que les recherches vont s’arrêter pour autant est peut-être naïf (c’est le point de vue de Bill Gates) mais le questionnement souligne également à quel point l’humanité se rapproche de cette fameuse singularité, avec des effets que personne ne peut encore prévoir.
Elon craint l’IA mais en veut une pour Twitter
Le milliardaire Elon Musk a souvent fait état de son inquiétude concernant les progrès des IA et a signé la fameuse lettre ouverte. Dans le même temps, il préparerait activement le développement d’une intelligence artificielle avancée pour le réseau social Twitter qu’il dirige depuis le mois de novembre 2022.
Il aurait fait l’acquisition de 10 000 composants graphiques pour animer un modèle de langage (comme GPT-4 pour ChatGPT) permettant d’analyser des requêtes et de répondre aux questions des utilisateurs, selon Insider.
Elon Musk aurait également recruté des talents comme Igor Babuschkin et Manuel Kroiss, anciens de DeepMind, l’entreprise dédiée aux IA d’Alphabet / Google. Après avoir contribué à fonder OpenAI, à l’origine de ChatGPT, l’homme d’affaires semble chercher à constituer depuis plusieurs mois une équipe spécialisée dans l’intelligence artificielle.
Le contrôle des IA est-il possible ?
Cette question du contrôle des IA n’est pourtant pas anodine et les gouvernements commencent à en prendre conscience. La Chine a déjà fait savoir qu’elle allait imposer un cadre aux développements d’intelligence artificielle dans le pays pour s’assurer que son fonctionnement corresponde aux attentes du pouvoir, notamment en matière de contrôle de l’information.
De son côté, le gouvernement américain veut rassembler des informations pour mettre en place un protocole pour s’assurer que les IA fonctionnent conformément aux attentes, sans causer de dommages annexes ou au moins de pouvoir les anticiper.
En Europe aussi, on réfléchit à poser un cadre éthique aux développements d’intelligence artificielle et à la prise en compte des conséquences néfastes qu’elles pourraient générer.
Mais ces encadrements ne risquent-ils pas d’arriver après la bataille, une fois que des IA potentiellement dangereuses ont émergé, et seront-ils suffisants pour éviter une catastrophe ?
Les enjeux sont tels que personne n’a intérêt à vouloir freiner les développements, sous peine de voir les concurrents prendre le dessus.