Lors de sa conférence annuelle sur les E/S qui s’est tenue aujourd’hui, Google annonce une mise à niveau vers la recherche multiple qui effectue des requêtes simultanées sur les objets qui vous entourent.

Avec une nouvelle fonctionnalité appelée exploration de scènes, Google s’efforce de rendre la recherche encore plus naturelle en combinant sa compréhension de tous les types d’informations – texte, voix, visuels, etc.

Il s’appuie sur la recherche multiple dans Google Lens, introduit le mois dernier, et permet de rechercher des « scènes » entières en une seule fois.

Google a démontré l’exploration de scènes avec un exemple d’étagère d’épicerie, montrant comment il peut identifier instantanément les articles qui répondent à un ensemble spécifique de critères.

Comment fonctionne l’exploration de scène ?

Lorsque vous effectuez une recherche visuelle avec Google à l’aide de la recherche multiple, il est actuellement capable de reconnaître des objets dans une seule image.

Avec l’exploration de scènes, qui sera déployée à un moment donné dans le futur, vous pourrez utiliser la recherche multiple pour faire un panoramique de votre caméra et glaner des informations sur plusieurs objets dans une scène plus large.

Dans un article de blog, Google déclare :

« Imaginez que vous essayez de choisir la barre chocolatée parfaite pour votre ami qui est un peu connaisseur de chocolat. Vous savez qu’ils aiment le chocolat noir mais n’aiment pas les noix, et vous voulez leur offrir quelque chose de qualité.

Grâce à l’exploration de scènes, vous pourrez scanner l’intégralité de l’étagère avec l’appareil photo de votre téléphone et voir des informations utiles superposées devant vous.

L’exploration de scènes est une percée majeure dans la capacité de nos appareils à comprendre le monde comme nous le faisons – afin que vous puissiez facilement trouver ce que vous cherchez – et nous sommes impatients de l’intégrer à la recherche multiple à l’avenir.

Google Scene Exploration recherche le monde qui vous entoure

Lors du discours d’ouverture de Google I/O, il a été déclaré que l’exploration de scènes utilise la vision par ordinateur pour connecter instantanément plusieurs images qui composent une scène et identifier tous les objets qu’elle contient.

Lorsque l’explorateur de scènes identifie des objets, il puise simultanément dans le Knowledge Graph de Google pour afficher les résultats les plus utiles.

Google réinvente la recherche

Prabhakar Raghavan, vice-président senior de Google, a déclaré sur Twitter que les fonctionnalités annoncées aujourd’hui représentent la nouvelle vision de l’entreprise en matière de recherche :

Plus loin dans le fil Twitter, il ajoute :

« TL DR : nous pensons que la façon dont vous effectuez une recherche ne devrait pas être limitée à la saisie de mots clés dans un champ de recherche… nous réimaginons ce que cela signifie de rechercher à nouveau, afin que vous puissiez ✨rechercher de n’importe quelle manière et n’importe où✨ (4/ 4) »

Alors que Google réinvente la recherche, les entreprises devront peut-être repenser la manière dont elles l’optimisent.

Il y aura peut-être un moment dans le futur où les entreprises commenceront à se demander comment optimiser les produits réels pour l’exploration de scènes de Google.

À cette fin, il reste à voir si l’exploration de scènes a le potentiel de générer plus de trafic vers les éditeurs.

L’exploration de scènes affichera-t-elle des liens de sites Web que les utilisateurs pourront visiter ? Ou Google fera-t-il simplement apparaître les informations du Knowledge Graph ?

Je soupçonne que ces questions, et bien d’autres, trouveront une réponse à mesure que l’exploration de la scène se rapproche du lancement.


La source: Google

Image en vedette : Poetra.RH/Shutterstock

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici