Une série de résultats de recherche dans l’intelligence artificielle (IA) ravive une question qui, il y a peu de temps encore, paraissait lointaine, voire paranoïaque. Demain, faudra-t-il protéger nos « neuro-droits » ? Faudra-t-il se soucier d’empêcher des logiciels – ou des importuns – de lire dans nos pensées et d’analyser l’activité neurologique de notre cerveau de façon non sollicitée ?
Mercredi 18 octobre, une équipe de Meta AI (anciennement Facebook) a présenté comment elle avait réussi, uniquement en décodant l’activité cérébrale de volontaires, à reproduire des images proches des photographies qu’ils regardaient : un zèbre, un surfeur sur une vague, etc. Un autre article paru en mai dans Nature avait présenté des logiciels permettant de reconstruire des mots et une partie du discours oral entendu par un sujet, toujours en analysant son cerveau avec l’IA.
Par ailleurs, fin septembre, Neuralink, l’entreprise d’Elon Musk spécialisée dans les interfaces cerveau-machine, a obtenu le feu vert pour son premier essai clinique sur des humains : des patients paralysés se verront équipés d’un implant cérébral dans le but de « contrôler un curseur sur un écran ou un clavier d’ordinateur, uniquement par la pensée ».
Bien sûr, on peut opposer des critiques politiques à des projets technophiles et élitistes comme Neuralink, qu’Elon Musk présente à la fois comme un dispositif thérapeutique et comme un moyen d’augmenter les capacités humaines en « réussissant la symbiose » entre le cerveau humain et une supposée superintelligence censée émerger à l’avenir. Par ailleurs, comme l’explique un article du Monde à ce sujet, les récentes recherches de décodage par l’IA de l’activité du cerveau nécessitent d’insérer la tête du patient dans de volumineux scanners. Et elles ne semblent pas fonctionner si le sujet étudié n’est pas volontaire, ce qui exclut pour l’heure de « lire dans ses pensées » à son insu.
« Intégrité cognitive »
Les avancées des neurotechnologies donnent toutefois des arguments à ceux qui réclament des mesures d’encadrement. Ainsi, l’Unesco a organisé en juillet une conférence internationale sur l’éthique de ces techniques. Ses participants ont conclu à la nécessité de « l’élaboration d’un instrument normatif mondial et d’un cadre éthique ». « La promesse [d’apporter notamment des solutions à des patients handicapés] pourrait avoir un coût élevé pour les droits humains et les libertés fondamentales, en cas d’abus. Les neurotechnologies peuvent affecter votre identité, votre autonomie, votre vie privée, vos sentiments et comportements et votre bien-être », a estimé Gabriela Ramos, la sous-directrice générale pour les sciences sociales et humaines de l’Unesco, dans le Financial Times. Présente à la conférence, la professeure de droit Nita Farahany, autrice de The Battle for your Brain (« la bataille pour votre cerveau », MacMillan, non traduit), craint des usages dans le cadre professionnel ou pour des enquêtes judiciaires.
Il vous reste 35% de cet article à lire. La suite est réservée aux abonnés.