ChatGPT-3 est une nouvelle irruption de l’intelligence artificielle (IA) dans nos quotidiens, qui renouvelle les peurs déjà suscitées en 2016 lorsque cette technologie est devenue très médiatique. Va-t-elle nous remplacer ? Et cette fois, pas pour des emplois manuels comme on le craignait avec l’émergence des robots, mais pour des tâches intellectuelles ?
Les enseignants, les avocats, les journalistes se sentent menacés. Mais ne serait-on pas en train de tomber dans le piège de la fascination pour les machines, qui sont pourtant depuis longtemps une extension des activités humaines ?
ChatGPT-3 n’est pas autonome, c’est un système d’apprentissage par essai-erreur que des humains corrigent au fur et à mesure. A ce titre, ChatGPT-3 n’a pas une vision neutre du monde. Car ces humains, ce sont principalement les concepteurs et ingénieurs d’OpenAI : des investisseurs de PayPal, LinkedIn et Facebook, comme Peter Thiel (aussi créateur de Palantir) ou Elon Musk (que l’on ne présente plus).
Des critères pratiqués par les Gafam
Et pour assurer un comportement éthique de la machine, c’est-à-dire intégrer des garde-fous en matière de désinformation ou d’idéologies extrêmes, ils ont programmé une censure basée sur leurs propres valeurs, et appliquent les critères pratiqués par les Gafam (Google, Amazon, Facebook, Apple, Microsoft). Cette technologie encapsule donc leurs normes et leur vision du monde. Cette dernière est occidentale, libertaire, progressiste, et croit que l’intelligence artificielle va augmenter, voire remplacer l’humain.
Asma Mhalla, spécialiste des enjeux géopolitiques du numérique, enseignante à Sciences Po et à l’Ecole polytechnique, soulignait sur France 5, dimanche 5 février, que cette vision du monde est aussi géopolitique. Car les Etats-Unis sont engagés dans une lutte de puissances avec la Chine à tous les niveaux, ce que les Chinois appellent la « compétition stratégique ». Et l’intelligence artificielle est au cœur de cette rivalité – d’ailleurs la Chine a pour objectif de devenir la première puissance du monde dans ce domaine –, notamment pour ses usages militaires.
Les deux camps sont au coude à coude en matière de développement d’armes autonomes qui incorporent un haut niveau d’IA, c’est-à-dire qui sont capables de prendre des décisions de vie ou de mort sans qu’il n’y ait d’intervention humaine. Sam Altman, le patron d’OpenAI, est enthousiaste à l’idée de mettre sa technologie au service d’usages militaires et d’espionnage menés par le Pentagone. Notamment pour contrer Google, qui opère en Chine… Les deux pays sont ainsi en train de préparer, grâce et via les nouvelles technologies, les guerres de demain.
Il vous reste 53.8% de cet article à lire. La suite est réservée aux abonnés.