La demande d’un moratoire de six mois sur les systèmes d’intelligence artificielle (IA) comme ChatGPT a le mérite d’attirer l’attention sur les nombreuses questions éthiques que soulèvent les robots conversationnels. L’une des plus fascinantes concerne l’architecture morale de ce qu’il convient d’appeler, à la suite de Wendell Wallach et Colin Allen (Moral Machines, OUP USA, 2008), des « agents moraux artificiels ».
ChatGPT n’a vraisemblablement pas les propriétés requises pour être un « patient moral », c’est-à-dire une entité envers qui nous aurions des obligations morales (comme ne pas lui faire de mal si elle est sentiente). En revanche, le système développé par OpenAI peut être qualifié d’« agent moral artificiel », puisqu’il semble capable de respecter – avec plus ou moins de succès – des obligations morales.
Un robot conversationnel doit en effet être programmé pour faire face à des situations moralement délicates : que répondre à une insulte sexiste ? Doit-il toujours dire la vérité, y compris à un enfant qui demande si le Père Noël existe ? Certes, ChatGPT est dépourvu de toute intention communicative et il ne comprend rien à rien. Mais les mots peuvent tromper et ils véhiculent des valeurs : ils peuvent, en particulier, charrier des clichés et des stéréotypes critiquables.
D’un point de vue technique, la normativité morale transparaît à différents niveaux. Il y a d’abord les valeurs et les normes qui imbibent les données textuelles récoltées pour l’apprentissage ; il est d’ailleurs possible d’intervenir à ce premier niveau pour corriger certains biais indésirables. L’apprentissage par renforcement avec rétroaction humaine constitue une seconde source de normativité, puisqu’on entraîne l’IA à donner des réponses « utiles, honnêtes et non toxiques ». Enfin, à un troisième niveau, il semble possible d’introduire, via un prompt [une instruction] caché (comme le Sydney de Bing), des règles telles que toujours se présenter comme une machine ou fuir les invitations sexuelles.
Se pose alors une question (méta-éthique) aussi inédite que fondamentale : comment choisir et justifier les obligations morales que devrait suivre l’IA ? Bref, quelle théorie morale implémenter dans ChatGPT ?
Le conséquentialisme et le déontologisme
Si l’on s’en tient à la tradition philosophique, au moins trois architectures morales sont possibles : conséquentialiste, déontologiste et selon l’éthique de la vertu.
Pour l’approche conséquentialiste (dont l’utilitarisme est une version), ChatGPT sera bien programmé s’il produit des effets positifs sur ses utilisateurs et sur le monde. Il importe de se demander si tel paramétrage va augmenter ou diminuer le bien-être des patients moraux. Ainsi, une programmation conséquentialiste pourrait très bien justifier que l’on mente à l’enfant au sujet du Père Noël afin de maximiser son plaisir. Dans quelle mesure un tel robot est-il techniquement faisable et moralement souhaitable ? Voilà deux questions complexes que soulève le robot conséquentialiste.
Il vous reste 44.04% de cet article à lire. La suite est réservée aux abonnés.