L’utilisation de Google Assistant devient plus naturelle

L’utilisation de Google Assistant devient plus naturelle


Les assistants vocaux sont certes bien pratiques, mais on ne parle pas avec eux comme avec une vraie personne. À l’occasion de la conférence I/O 2022, Google a présenté trois améliorations qui permettent de rendre les interactions plus naturelles. Elles sont pour l’instant limitées à l’enceinte connectée Nest Hub Max aux États-Unis, mais il est probable qu’elles apparaîtront progressivement sur les autres appareils du géant de la Tech.

Ainsi, l’utilisateur n’aura plus besoin de dire le mot-clé « Hey Google » pour lancer une conversation. Il suffira qu’il regarde l’écran de manière intentionnelle pour que l’assistant se mette à écouter. « La capacité à distinguer un regard intentionnel d’un simple coup d’œil éphémère nécessite six modèles d’apprentissage automatique qui traitent plus d’une centaine de signaux en temps réel », explique Sissie Hsiao, vice-présidente et directrice générale en charge de Google Assistant.

En particulier, l’appareil va utiliser la caméra et le microphone pour évaluer la proximité de la personne, l’orientation de sa tête, l’orientation de son regard, le mouvement de ses lèvres et le contexte général. Ces signaux sont également utilisés pour authentifier l’utilisateur, sans quoi l’assistant ne se manifestera pas.

Autre nouveauté : l’assistant de Nest Hub Max sera capable de répondre immédiatement à des commandes prédéfinies (« Quick phrases »), comme c’est déjà le cas sur Pixel 6. Ces commandes permettent à l’utilisateur de réaliser des tâches banales et fréquentes, sans qu’il soit contraint de dire le mot-clé. Exemples : éteindre la lumière, mettre un minuteur, demander la météo…

Un assistant plus relax

Enfin, l’utilisateur pourra formuler ses requêtes de manière plus relax, car l’assistant vocal sera capable de comprendre des phrases conversationnelles même si elles sont parsemées de pauses ou d’interjections (« euh », « hmm »). Comme nous le faisons dans la vie réelle. Pour y arriver, Google muscle les réseaux de neurones embarqués dans sa puce Tensor pour qu’ils soient capables de reconnaître et interpréter ces éléments de langages, sans pour autant faire augmenter la latence.

Source: Google



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.