Google Search se transforme pour coller à l’air du temps

Google Search se transforme pour coller à l'air du temps


Depuis son lancement, le moteur de recherche de Google offre une interface utilisateur simple : tapez votre requête dans un champ et vous découvrirez ce que la toile a à vous offrir. Les résultats sont en grande partie fournis sous forme de texte bleu, avec des liens hypertextes vers d’autres sites. Ces dernières années, les résultats ont été enrichis de résultats visuels, d’articles de presse et d’autres formes de contenu connexe.

Pour autant, les équipes de recherche de Google pointent du doigt le fait qu’une part importante des jeunes internautes préfèrent rechercher des informations sur des réseaux sociaux, comme Instagram et TikTok, plutôt que sur les produits Google. Cette évolution des préférences des utilisateurs contribue à expliquer pourquoi Google fait évoluer ses outils de recherche de base pour y inclure des contenus provenant de ces plateformes sociales, à côté d’informations provenant de sources plus traditionnelles.

« La façon dont les gens recherchent et créent des informations n’a jamais été limitée à la saisie de mots », expliquait ce mercredi Cathy Edwards, vice-présidente et directrice générale de la recherche chez Google, en marge de l’événement Search On. « Il y a tellement d’informations sur le web qui viennent dans différents formats et de différentes voix qui ont une autorité et une expertise différentes. »

TikTok et Reddit s’invitent à la fête

Désormais, si un utilisateur recherche le nom d’une ville spécifique, par exemple, il pourra obtenir des résultats comprenant des histoires visuelles et de courtes vidéos de personnes ayant visité ce lieu. « Nous pouvons vraiment voir, alors que nous entrons dans cette nouvelle ère de la recherche, que vous serez en mesure de trouver exactement ce que vous cherchez en combinant des images, des sons, du texte et de la parole, organisés d’une manière qui a du sens pour vous », indique Cathy Edwards. Concédant qu’il existe du « très bon contenu » sur TikTok, cette dernière explique « chercher d’autres moyens d’intégrer cela dans nos résultats de recherche ».

La « nouvelle ère de la recherche » de Google met également l’accent sur les conversations communautaires sur des forums comme Reddit, une autre plateforme qui sert d’alternative à Google Search. Google lance une nouvelle fonctionnalité dans la recherche, intitulée « Discussions dans les forums », qui fait apparaître ces résultats. « Certaines personnes souhaitent évidemment voir davantage de résultats provenant de Reddit et d’autres forums communautaires dans nos résultats », fait-on savoir du côté du géant américain.

Pour autant, Google s’attache à faire en sorte que les utilisateurs puissent trouver « à la fois les informations authentiques et les informations faisant autorité » sur ses outils de recherche. « Nous voyons également dans nos recherches que les gens viennent à Google spécifiquement pour vérifier leurs affirmations et… pour les aider à décider s’ils peuvent croire quelque chose qu’ils ont pu dénicher sur un réseau social. »

Transformer nos recherches

L’importance accrue accordée par Google à la recherche multimodale ne concerne pas seulement les résultats – elle concerne également la façon dont les gens peuvent poser des questions. Au début de l’année, Google a introduit la recherche multiple en version bêta, permettant aux utilisateurs de rechercher un sujet en utilisant simultanément des images et du texte. Dans les mois à venir, Google étendra cette fonctionnalité à plus de 70 langues.

Dans le même temps, Google améliore également les fonctionnalités de son service Lens. Les internautes utilisent déjà Google pour traduire du texte dans des images plus d’un milliard de fois par mois, dans plus de 100 langues. Désormais, si vous pointez votre appareil photo sur une image contenant du texte, Lens sera en mesure de traduire le texte et de le superposer aux images situées en dessous. Par exemple, si vous lisez l’étiquette d’un paquet de chips, le texte apparaîtra dans votre langue préférée sur ce paquet de chips.

« Au lieu de recouvrir le texte original, nous l’effaçons et reconstruisons les pixels sous-jacents avec un arrière-plan généré par l’IA », explique Cathy Edwards. « Ensuite, nous superposons le texte traduit sur l’image. Ainsi, vous avez vraiment l’impression de regarder l’emballage du produit avec le texte traduit. » Cette fonctionnalité sera lancée plus tard dans l’année.

Source : ZDNet.com





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.