La ruée vers l’intelligence artificielle (IA) a bien lieu. Microsoft, Google, Amazon ou Meta ont massivement investi, et un fournisseur de puces spécialisées comme Nvidia connaît un succès enviable. Apple annonce intégrer ChatGPT à ses iPhone haut de gamme. Des start-up françaises lèvent des fonds impressionnants. Il est vrai que les outils génératifs de contenu promettent l’exploit pour tous : produire des textes, des images, des sons à la demande ; détecter l’indétectable, converser avec les robots et dans toutes les langues… Pourtant, l’avenir de l’IA est encore loin d’être prévisible.
Comme toutes les nouvelles techniques qui promettent le progrès universel, l’IA suscite d’abord l’extase ou l’effroi. Extase, avec les perspectives d’une vie facilitée par une infinité d’assistants omniscients. Effroi, avec les manipulations invisibles, le pillage des données et des œuvres, les bouleversements annoncés des emplois. Ces dangers bien réels ont déjà suscité des régulations nationales et internationales qui visent à défendre les individus et les Etats, tout en réduisant la domination des grandes entreprises américaines.
Mais ces régulations ne déterminent ni les stratégies de développement futures de l’IA, ni les usages qui s’inventeront au fil des expériences. La recherche a bien montré que les techniques universelles sont confrontées au paradoxe d’une dissémination soumise à un double inconnu (« Gestion de risque en situation de double inconnu », Olga Kokshagina, thèse Mines Paris PSL Université, 2014).
Des ruptures scientifiques inattendues
Première inconnue, les possibilités d’usages sont si vastes que les modèles d’affaires les plus pertinents sont à inventer. Et comme les algorithmes sont encore particulièrement exigeants en temps de calcul et en quantité de données, même les géants du numérique se limitent à doper leurs applications classiques. Mais rien n’assure que ce sont ces applications les plus visibles qui bénéficieront vraiment de cette intelligence supplémentaire. L’invention de nouveaux produits et de nouveaux usages pourrait changer le visage de l’IA et ses acteurs.
Deuxième inconnue : aujourd’hui, ChatGPT et les algorithmes génératifs reposent sur de gigantesques structures probabilistes d’analyse et de composition des contenus (« large language models »). Pourquoi devrait-on s’arrêter là ? L’histoire récente de l’IA repose sur des investissements colossaux confiés à des start-up. Mais l’histoire des innovations regorge d’exemples où les stratégies de développement industriel, si elles ne sont pas soutenues par un effort de recherche, se sont enlisées ou ont été rendues obsolètes par des ruptures scientifiques inattendues (le transistor, la photo numérique…).
Il vous reste 20.48% de cet article à lire. La suite est réservée aux abonnés.