
Rose La Prairie est group product manager pour Google Search et product lead pour Entourer pour chercher. Elle est chargée de développer de nouvelles façons d'explorer le monde qui nous entoure. Elle s'entretient ici avec Lou Wang, cofondateur de Google Lens.
Imaginez plonger au cœur de la recherche visuelle avec celui qui l'a non seulement conçue, mais qui l'utilise quotidiennement. Rencontrez Lou Wang, co-fondateur de Google Lens et directeur principal des produits d'IA multimodale chez Google Search, incluant Lens, Circle to Search et Voice Search.
Google Lens est utilisé par plus de 1,5 milliard de personnes chaque mois. Son utilisation a augmenté de 65 % sur un an1, avec déjà plus de 100 milliards de recherches visuelles effectuées cette année2. Mais Lou Wang n'est pas seulement un architecte de cette technologie, c'est aussi un "super-utilisateur" autoproclamé.
Il nous partage son expérience personnelle de la recherche visuelle, ainsi que les tendances mondiales et les stratégies indispensables permettant aux responsables marketing d'interagir avec les audiences dans ce nouveau monde du Search.
Rose La Prairie (RLP) : En tant que cofondateur de Google Lens, vous avez été à l'avant-garde de la réinvention de notre interaction avec l'information. Lorsque Lens a été lancé en 2017, quel a été le moment décisif, le moment "eurêka", qui vous a révélé l'immense potentiel de la recherche visuelle ?
Lou Wang (LW) : La technologie de recherche visuelle était assez naissante lorsque nous avons commencé à travailler sur Lens. Il existait des modèles d'apprentissage automatique personnalisés pour identifier les animaux (comme les races de chiens et de chats) et les plantes. Mais, en général, la recherche visuelle n'était pas encore très fiable.
Paradoxalement, le moment décisif à été celui où nous nous sommes rendu compte que nous pouvions construire des produits de recherche visuelle en nous concentrant sur le texte. Le texte est partout : sur les panneaux, les documents, les menus... La capacité de Google à comprendre le texte était bien plus avancée que sa capacité à comprendre des objets aléatoires. En 2016, nous avions même créé un prototype qui permettait de photographier du texte, d'appuyer dessus et d'obtenir des résultats de recherche. Cela permettait par exemple, d’en savoir plus sur un groupe de musique à partir d'une affiche ou sur un plat de pâtes repris sur un menu de restaurant.
Cette découverte nous a permis de parvenir assez rapidement à une solution véritablement utile. Depuis, les technologies d'IA ont énormément progressé, et nous avons pu intégrer de plus en plus de fonctionnalités à Lens. Les utilisateurs et utilisatrices apprécient toujours Lens pour le texte, mais il est désormais possible d'effectuer des recherches visuelles sur pratiquement tout. Nous intégrons constamment de nouvelles fonctionnalités basées sur l'IA pour rendre Lens encore plus efficace dans ses réponses.
RLP : En tant que responsable produit de Circle to Search, j'ai été ravie de lancer l'année dernière cette méthode intuitive et gestuelle d'explorer notre monde. Cette méthode intuitive et gestuelle est le fruit de votre travail novateur sur Google Lens. Comment votre contribution a-t-elle révolutionné la recherche visuelle ?
LW : Circle to Search a changé la donne. Les gens pensent souvent à Google Lens dans un usage précis : celui de prendre une photo avec leur appareil pour poser une question, mais Circle to Search va plus loin. Il permet d'entourer une partie de l'image ou d'appuyer sur un objet figurant sur celle-ci. Il est même possible "d’entourer" des captures d'écran ou des posts sur les réseaux sociaux sans changer d'application.
Dès qu'une personne voit quelque chose et souhaite poser une question, elle peut le faire instantanément. Cette facilité d'utilisation est incroyablement efficace et appréciée.
Cette fonctionnalité a eu un effet significatif sur le shopping. Les internautes sont constamment attirés par ce qu'ils voient sur YouTube et sur les réseaux sociaux. Il est très courant qu'un·e internaute voie une tenue sympa portée par un·e influenceur·se en ligne et veuille en savoir plus. Entourer pour chercher simplifie cette tâche. Il est possible d'"entourer" une partie de la tenue pour la trouver, et même de découvrir des styles similaires pour une gamme de prix précise dans les magasins à proximité.
RLP : La recherche visuelle est donc de plus en plus utilisée pour le shopping. Quels autres cas d'utilisation courants avez-vous pu observer ?
LW : En Europe et en Afrique, le shopping est clairement le cas d'utilisation principal, en particulier pour les articles difficiles à décrire par des mots, comme les vêtements, les articles pour la maison et les accessoires.
L'enseignement est un autre domaine dans lequel nous constatons une utilisation importante. Dans des pays comme l'Inde et l'Indonésie, les devoirs sont souvent donnés en anglais. Les élèves utilisent donc Google Lens pour les traduire dans des langues comme l'hindi afin de mieux comprendre les questions. Ils peuvent aussi obtenir de l'aide directement depuis Lens et le Search. Ce cas d'utilisation est également en plein essor sur d'autres marchés.
Autre tendance amusante que nous avons pu observer : les requêtes Google Lens liées à la nature (faune et flore) sont particulièrement populaires en Allemagne et au Japon. Ces pays semblent être particulièrement intéressés par la nature !
Nous constatons également que les requêtes Multisearch sont de plus en plus utilisées dans Lens pour exprimer des intentions plus complexes. Par exemple, en plus de partager la photo d'une feuille, ils posent une question, comme "Comment prendre soin de cette plante ?"

RLP : D'un point de vue commercial, comment les responsables marketing peuvent-ils tirer le meilleur parti de la recherche visuelle ?
LW : Pour une visibilité optimale, il est important que les marques disposent de nombreuses images de produits de qualité, avec des métadonnées précises et spécifiques pour la description du contenu des images.
Par exemple, si vous vendez une robe, prévoyez des images qui montrent l'article sous plusieurs angles, seule et sur différents modèles aux morphologies variées. Les utilisateurs et utilisatrices prennent eux-mêmes des photos sous différents angles, et apprécient donc cette variété visuelle et ces présentations. En tant que marchand·e, cela vous permet de vous démarquer plus facilement dans les résultats de recherche.
Autre point, particulièrement important dans le secteur de l'habillement : les saisons changent très vite. Les articles vendus il y a six mois ne sont parfois plus disponibles. Pourtant, nous constatons que beaucoup de personnes essaient encore de les trouver. Elles ont peut-être vu quelqu'un porter une robe à la télévision et veulent savoir de laquelle il s'agit et où elle est vendue.
Pour une visibilité optimale, il est important que les marques disposent de nombreuses images de produits de qualité, avec des métadonnées précises et spécifiques.
Si un produit disparaît complètement d'Internet, nous ne pouvons plus répondre à cette question. Il est préférable de conserver ces anciens produits et images en ligne pour qu'ils restent accessibles, et d'ajouter des informations sur une version "nouvelle saison" ou de suggérer des articles similaires en stock. Vous pouvez ainsi rediriger les client·es vers des propositions d’achat alternatives, même si l'article d'origine n'est plus disponible.
RLP : Pour terminer, à quoi ressemblera la recherche visuelle de demain ?
LW : L'annonce récente de Search Live, qui sera déployé en anglais aux États-Unis cet été, ajoute une façon d'interagir avec la recherche de manière encore plus naturelle.
Vous pourrez, par exemple, regarder un tableau et simplement dire à voix haute : "Ce style est vraiment intéressant, que peux-tu m'en dire ?" Puis, en apprenant qu'il s'agit d'un tableau impressionniste, vous pourriez demander : "Quels sont les artistes célèbres qui pratiquent ce style ?" C'est ce type de fonctionnalité fluide et en temps réel que nous développons, afin de rendre les interactions plus simples et plus conformes à la façon dont les personnes pensent et s'interrogent.
Il s'agit de l'une des nouvelles expériences basée sur l'IA que nous proposons dans nos produits. L'intégration des AI Overviews est un développement décisif. Auparavant, nous présentions une grille d'images visuellement similaires. Aujourd'hui, nous pouvons fournir des résultats plus nuancés et répondre à des questions plus complexes.
Nous essayons également de faciliter les recherches "en temps réel". La fonctionnalité Circle to Search a été très appréciée par les utilisateurs et utilisatrices Android, et nous la proposons désormais en version pour ordinateur, intégrée au navigateur Chrome. Ainsi, lorsque vous souhaitez plus d'informations ou lorsque vous avez une question sur quelque chose, la possibilité d'explorer est là.
Nous continuerons d'améliorer ces expériences pour permettre à chacun·e de satisfaire sa curiosité aussi spontanément que possible. Les utilisateurs et utilisatrices peuvent ainsi pointer du doigt et poser des questions, afin d'obtenir les informations recherchées.
Inscrivez-vous à la newsletter hebdomadaire de Think with Google pour recevoir nos derniers articles.