Lancer une requête dans le moteur de recherche de Google est aussi simple que de saisir quelques mots-clés à l’aide d’un clavier. Pourtant, si ce geste anodin est devenu chez certains assez naturel, pour Google, le futur de la recherche en ligne se fera d’une autre manière, plus naturelle encore, grâce aux images.
L’entreprise américaine qui tenait hier sa conférence annuelle I/O a ainsi profité de l’occasion pour présenter les nouvelles fonctionnalités déployées dans Google Lens, son module de recherche visuelle, mais aussi pour lever le voile sur les importantes innovations à venir.
À découvrir aussi en vidéo :
La recherche multiple dans votre quartier
Il y a quelques semaines, Google dévoilait l’arrivée de « Multisearch » dans son moteur de recherche. Cette recherche multiple, qui permet de combiner des mots-clés, des images et de la voix dans une seule requête, peut dorénavant être exploitée pour rechercher des informations locales.
En intégrant la notion de localisation, Google espère vous aider à trouver ce que vous recherchez en regardant d’abord près de l’endroit où vous vous trouvez.
Pour illustrer cette avancée, Google a pris l’exemple d’une personne qui souhaiterait déguster un plat particulier. En combinant une image (une photo ou une capture d’écran) d’un plat dont vous ignorez le nom et en lui associant les mots clés « près d’ici » dans une requête soumise au moteur de recherche, Google peut désormais vous aider à trouver les restaurants servant ce plat à proximité de votre emplacement.
Pour réussir cette prouesse, le moteur de recherche s’appuie évidemment sur l’Intelligence Artificielle, mais aussi et surtout sur la gigantesque bibliothèque de données qu’elle possède. Google va ainsi scanner des millions d’images et de critiques publiées en ligne et sur Google Maps pour dénicher le restaurant qui satisfera votre fringale. Attention toutefois, cette recherche multiple à proximité ne sera dans un premier temps disponible qu’en anglais.
La recherche en réalité augmentée et en temps réel
Mais le meilleur reste sans doute encore à venir. Google en effet levé le voile sur Scene Exploration, une nouvelle fonction qui sera capable d’analyser une scène entière. Vous pourrez ainsi soumettre à Google Lens ce que vous avez sous les yeux pour y lancer une recherche multiple dont les résultats seront affichés en réalité augmentée et en temps réel.
Là encore, la firme de Mountain View a illustré son concept à l’aide d’un exemple concret : vous êtes au rayon des tablettes de chocolat et souhaitez sélectionner la meilleure tablette de chocolat noir, sans noisette. Avec Scene Exploration, vous n’aurez qu’à pointer la caméra de votre smartphone vers le rayon et laisser Google Lens analyser les différentes tablettes du rayon.
Le module affichera ensuite le résultat directement sur votre écran en réalité augmentée. Google précise toutefois que Scene exploration est une fonctionnalité qui arrivera sur Google Lens « dans le futur », sans s’avancer sur une éventuelle date de disponibilité.
Source : Google