ZD Tech : Et si demain vous pouviez traduire ce que vous dit votre chat ?

ZD Tech : La chasse aux encombrants spatiaux est ouverte !


Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique pourquoi l’IA peut être la clé de communication inter-espèces.

Du mammifère marin au petit rongeur, tous communiquent. Si la question du langage animal fascine depuis longtemps, la science moderne s’attèle à déchiffrer et comprendre les interactions des espèces animales.

Et c’est là que l’intelligence artificielle intervient. En fouillant des données en masse, les ordinateurs parviennent à retrouver des modèles que les humains mettraient beaucoup plus de temps à détecter.

Earth Species Project

Deux entrepreneurs de la Silicon Valley travaillent par exemple à décoder le langage non-humain avec « Earth Species Project ». Cette mission, présentée comme le Google Translate des cétacés et des primates, utilise l’IA pour examiner les ressorts de la communication animale.

La méthode ? Elle se base sur une technique de machine learning, capable d’apprendre une représentation géométrique d’une langue entière.

CETI

C’est loin d’être une initiative isolée. Les médias ont aussi beaucoup parlé du projet de traduction des cétacés, nommé le “CETI”. Ce programme applique le machine learning et la robotique pour déchiffrer la communication du cachalot. Pour apprendre comment ils communiquent entre eux, les chercheurs tentent de collecter et d’identifier leurs bruits pour les faire correspondre avec leurs comportements.

Des robots nageurs autonomes et des réseaux d’hydrophones sont utilisés dans les fonds marins pour recueillir des données audio et vidéo.

DeepSqueak

Enfin, on peut également citer le projet DeepSqueak, tout droit sorti des cartons à la fac de Washington. Ce logiciel, qui doit son nom au deep learning, est capable d’analyser le langage des rongeurs.

Les souris et les rats communiquent socialement grâce à un riche répertoire de vocalisations ultrasoniques. Des systèmes construits à partir de réseaux neuronaux artificiels biomimétiques et « profonds » détectent et analysent des ultrasons. En un mot, DeepSqueak a été capable de réduire les faux positifs ainsi que le temps d’analyse, d’optimiser la classification automatique des syllabes et d’effectuer une analyse syntaxique automatique sur un nombre de syllabes donné.

Et peut-être qu’un jour nous aurons un Google Translate, ou une pierre de Rosette pour nos amis les bêtes.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.