Meta a dévoilé une intelligence artificielle capable de lire dans vos pensées. En s’appuyant sur les signaux électromagnétiques du cerveau, l’IA peut comprendre les images que vous avez en tête et les reproduire.
Meta concentre désormais ses efforts sur l’intelligence artificielle. Ces derniers mois, les chercheurs du groupe de Mark Zuckerberg ont dévoilé une pléthore d’innovations s’appuyant sur l’IA. Citons notamment Voicebox, une intelligence artificielle capable d’imiter une voix humaine, le modèle de langage Llama 2, ou MusicGen, un outil qui peut produire une musique à la demande.
Le géant de Menlo Park ne compte pas s’arrêter là. Sur son site web, Meta vient de mettre en ligne un rapport consacré à une IA conçue pour décoder ce qu’il se passe dans le cerveau humain. L’intelligence artificielle est en effet capable de comprendre les images qu’un individu a en tête. Par la suite, l’IA va reproduire les images aperçues dans les pensées de celui-ci.
À lire aussi : Pour former son IA, Meta exploite vos publications Facebook et Instagram
Comment l’IA peut lire dans le cerveau ?
Pour parvenir à cette prouesse, Meta s’appuie sur la magnéto-encéphalographie, ou MEG, une technique d’imagerie cérébrale qui mesure l’activité électromagnétique du cerveau. En collectant « des milliers de mesures d’activité cérébrale » par seconde, le système va « décoder le déploiement des représentations visuelles dans le cerveau ». Meta a mis au point un « modèle de décodage » basé sur l’IA pour comprendre les champs magnétiques produits par l’activité neuronale.
Une fois que les données ont été traitées, elles vont être reliées aux représentations visuelles mises au point l’IA en amont. Ces représentations sont générées par un encodeur d’image, qui dispose d’un « riche ensemble » de visuels différents. En d’autres termes, les images déjà disponibles vont être comparées aux images décelées dans le cerveau. C’est là que l’« encodeur cérébral » entre en jeu. Enfin, l’IA va produire une « image plausible » en se basant sur les visuels dans les pensées de la cible. Notez que les visuels sont générés en continu à partir du cerveau, ce qui offre un aperçu unique de ce qu’il se passe dans l’esprit humain.
Dans le cadre de son expérience, l’entreprise a d’abord montré une image, fournie par l’IA, à des bénévoles. En parallèle, une machine MEG scannait les signaux de leur cerveau. Meta a partagé plusieurs exemples des résultats générés dans son rapport. Dans la plupart des cas, le résultat final n’est pas tombé loin de l’image montrée à l’origine. L’IA parvient généralement à reproduire l’objet principal de l’image en s’appuyant sur les ondes et sa bibliothèque de visuels.
« Nos résultats montrent que le MEG peut être utilisé pour déchiffrer, avec une précision d’une milliseconde, la montée des représentations complexes générées dans le cerveau », résume Meta.
Les limites de l’IA
À ce stade, l’IA doit d’abord être entraînée sur l’activité cérébrale d’un individu avant d’être utilisée pour décrypter des pensées. Le système doit passer par une période de formation, qui va l’habituer à interpréter des ondes cérébrales spécifiques. De la même manière, un modèle linguistique doit être formé sur base d’une montagne de textes avant de pouvoir animer un chatbot.
De plus, rien n’indique que cette technologie, encore à ses balbutiements, puisse permettre de décoder des images qui ne sont pas d’abord traitées par l’IA. Tout en promettant d’autres avancées à l’avenir, Meta estime que sa technologie pourrait permettre de concevoir des « interfaces cerveau-ordinateur non invasives » pour venir en aide aux personnes qui ont perdu la capacité de parler.
Notez qu’il ne s’agit pas de la première fois qu’une IA parvient à lire dans les pensées humaines. Cet été, des chercheurs américains ont dévoilé une IA capable de deviner la musique qu’une personne est en train d’écouter uniquement en collectant les données issues du cerveau. Là encore, les scientifiques se sont appuyés sur les signaux électriques émis par le cerveau.
Source :
Meta