Peut-on déléguer nos questionnements moraux à une intelligence artificielle ?

Peut-on déléguer nos questionnements moraux à une intelligence artificielle ?


Depuis bientôt dix-huit mois que cette chronique existe, on a pu constater que les réponses proposées aux dilemmes abordés suscitent des réactions très variées. Elles touchent, elles indignent – parfois dès le stade de la question (comment peut-on imaginer qu’il soit « moral » de « se mettre volontairement au chômage », de « ghoster quelqu’un », etc., s’insurgent parfois les lecteurs) –, elles débouchent sur des conversations animées.

En somme, il se passe ici ce qu’il se passe dans la vie : le jugement moral humain étant ce qu’il est, riche et subtil, émergeant de l’interaction complexe entre la raison et l’émotion, l’expérience et l’intuition, on est parfois déçus par les conseils que l’on reçoit. Ils peuvent être pauvres, manquer d’empathie, ne pas prendre en compte la complexité d’une situation ou défendre des valeurs différentes des nôtres. Une autre forme d’intelligence comme l’intelligence artificielle s’en sortirait-elle mieux ?

« La réponse est non, juge Raja Chatila, professeur d’intelligence artificielle, de robotique et d’éthique à la Sorbonne. Le système d’intelligence artificielle n’est pas un agent moral au sens philosophique du terme. C’est un système numérique qui, c’est très important, ne comprend rien aux termes qu’il utilise. Penser qu’une IA va être compétente en matière de morale est une erreur ontologique. Autant regarder les entrailles d’un oiseau qu’on sacrifie. »

Des « résultats impressionnants »

Les chatbots, ou robots conversationnels, ne possèdent pas les caractéristiques essentielles des éthiciens humains, notamment la conscience de soi, l’émotion et l’intention. Mais les large language models (LLM, « grands modèles de langage »), qui permettent à la machine d’ingérer d’énormes volumes de textes philosophiques publiés sur plusieurs siècles, y compris des descriptions de problèmes moraux, peuvent fournir la réponse la mieux corrélée statistiquement avec une requête et ainsi donner l’illusion de comprendre. « Les résultats sont impressionnants, il n’y a pas de doute, admet Raja Chatila. Mais une délibération éthique, ce n’est pas appliquer des règles. C’est réfléchir à une situation concrète, tenir compte de valeurs qui peuvent être variées et, parfois, en contradiction les unes avec les autres, pour faire des choix. »

Il vous reste 65.23% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.