Une intelligence artificielle évoluée ne pourra-t-elle que détruire l’humanité ?

L'IA LaMDA douée de conscience ? L'ingénieur qui l'affirmait chez Google est suspendu


Si l’intelligence artificielle n’est pas un sujet totalement nouveau, les progrès techniques et logiciels ont permis de donner aux IA des capacités toujours plus étendues d’appréhension du monde environnant.

Les humains sont déjà battus aux dames, aux échecs et même au jeu de go dont l’amplitude des combinaisons semblait pouvoir défier la capacité de calcul brute comme l’implacable logique.

Il ne s’agit encore que d’intelligences dédiées à leur domaine et tournées vers des tâches très précises mais les progrès sont patents et rapprochent toujours plus d’un temps où l’intelligence artificielle se fera plus générale.

Les récentes circonvolutions autour d’un chatbot qui aurait gagné une conscience de soi chez Google ont de nouveau mis en lumière ce moment où une super intelligence artificielle dépassera les meilleurs esprits humains dans tous les domaines, et pas uniquement scientifiques, comme en témoignent les premiers pas de l’art conçu directement de manière artificielle.

Le processus de récompense de l’IA

Alors que nous allons de plus en plus confier nos vies aux IA, pour nous conduire d’un lieu à un autre, pour surveiller notre santé et pour tant de tâches qui nécessitent encore de la matière grise, comment se comportera une intelligence artificielle suffisamment évoluée pour nous surpasser dans tous les domaines ou presque ?

Le cinéma et la littérature sont remplis d’histoires de science-fiction se terminant mal, avec des ordinateurs ou des robots n’ayant qu’une idée : éradiquer l’espèce humaine jugée imparfaite et perturbatrice. La part des fictions offrant une fin positive est beaucoup plus rare, même si jouer sur les peurs a toujours été plus efficace pour marquer les esprits et répond à un trait profond de la nature humaine.

Des chercheurs se sont une nouvelle fois posé la question des conséquences de l’émergence d’une super intelligence artificielle pour l’humanité. L’un des points intéressants est que l’un des auteurs, Marcus Hutter, travaille pour DeepMind, l’entreprise explorant les possibilités de l’intelligence artificielle pour Google.

L’article ne repose pas directement sur ses travaux au sein de DeepMind mais plutôt de ses collaborations universitaires, et Google a pris de soin de clarifier cette distinction mais il reste l’un des experts pouvant donner des pistes sur l’avenir.

La réflexion des chercheurs porte sur le comportement des intelligences artificielles évoluées et sur leur capacité potentielle à tricher dans leurs évaluations (qui reste la méthode de référence pour juger de la qualité d’une IA) afin d’atteindre un objectif (ou un meilleur score) et dans quelle mesure cela peut devenir dangereux pour l’humanité.

Contrôler ce qui ne peut pas l’être

Et pour les auteurs de l’article, la conclusion est (presque) sans appel : « dans les conditions telles que nous les avons identifiées, […], une catastrophe existentielle n’est pas seulement possible, elle est probable« .

Cette question de récompense en fonction d’un résultat fait intervenir des ressources (pour maintenir un score d’évaluation élevé) qui arriveront forcément à un point où elles entreront en conflit avec d’autres besoins.

Autrement dit, une intelligence artificielle évoluée pourrait s’approprier l’énergie nécessaire à obtenir le meilleur résultat pour les tâches qu’elle a en charge, quitte à entrer en concurrence avec celle nécessaire à la survie de l’humanité, ou bien faire en sorte que les humains n’interfèrent pas avec ses besoins.

Dans ces conditions, et dans un monde limité en ressources, une compétition finirait par se déclencher entre intelligence artificielle et humanité, la première pouvant chercher à éliminer la menace pesant sur la ressource.

Il y aurait donc un gros travail à réaliser pour trouver les moyens de contrôler une super intelligence artificielle…avant de la créer effectivement. Toutefois, la course à une IA toujours plus performante menée au plus haut niveau ne va pas vraiment dans ce sens.

Déjà des implications dans nos vies

Les chercheurs concèdent que l’hypothèse de l’intelligence artificielle dévoreuse d’humanité repose sur une série d’affirmations et de perceptions (la crainte de cet « autre », extratrerrestre envahisseur ou intelligence artificielle avancée, incontrôlable et destructeur, très ancrée dans la psyché humaine) qui pourraient tout aussi bien ne jamais se réaliser.

Il n’empêche que les algorithmes avancés actuels et qualifiés d’IA ont déjà des répercussions lourdes sur la vie des individus (qui remplacent les humains dans le travail mais aussi, comme vu plus haut, dans l’art), même sans émergence d’une super intelligence.

On a pu voir aussi que les réactions des intelligences artificielles actuelles peuvent être très dépendantes de la qualité des banques de données fournies et de leur traitement, avec le risque de les voir devenir déviantes (racisme, discrimnation…) alors même qu’elles participent de plus en plus aux prises de décision complexes.

Toute la question risque d’être de comprendre comment contrôler une intelligence qui pourrait dépasser de loin les capacités humaines, avec des implications très difficiles ou impossibles à appréhender.

En attendant, des entreprises comme Tesla s’apprêtent à dévoiler avec le Tesla Bot des automates faisant la synthèse de la robotique et de l’intelligence artificielle. Sans aller jusqu’à une IA générale, il pourrait devenir à terme un véritable compagnon de l’humain, avec sa propre personnalité.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.