Rose La Prairie é group product manager do Google Search e product lead do recurso Circule para pesquisar. Ela é responsável por desenvolver novas maneiras para que as pessoas explorem o mundo ao seu redor. Nesta entrevista, ela conversa com Lou Wang, cofundador e diretor sênior do Google Lens. Wang lidera os produtos de IA multimodal do Google Search, como o Lens, o Circule para pesquisar e a Busca por voz.
Agora, imagine ter acesso a informações privilegiadas sobre busca visual direto de alguém que não apenas ajudou a criá-la, mas também a utiliza todos os dias.
Apresentamos Lou Wang.
Ele é cofundador do Google Lens, plataforma usada por mais de 1,5 bilhão de pessoas por mês, para pesquisar o que veem. Só neste ano, o Lens cresceu 65%1 em relação ao ano anterior, com mais de 100 bilhões de buscas visuais realizadas até agora2.
Mas Wang não é apenas o arquiteto dessa tecnologia — ele também se autodefine como um usuário avançado. Nesta entrevista, ele compartilha sua trajetória pessoal com a busca visual, além de tendências globais e estratégias essenciais para que profissionais de marketing se conectem com as audiências em um mundo cada vez mais visual.
Rose La Prairie (RLP): Como cofundador do Google Lens, você esteve na linha de frente da revolução sobre como interagimos com a informação. Quando o Lens foi lançado, em 2017, qual foi o momento decisivo que revelou para você o imenso potencial da busca visual?
Lou Wang (LW): A tecnologia de busca visual ainda era bem nova quando começamos a trabalhar no Lens. Existiam modelos de machine learning desenvolvidos especificamente para identificar animais (como raças de cães e gatos) e plantas. Mas, no geral, a busca visual ainda não era muito confiável.
Curiosamente, um dos momentos reveladores foi perceber que poderíamos criar produtos de busca visual se focássemos no texto. O texto está em todo lugar: em placas, documentos, cardápios. A capacidade do Google de compreender texto era muito mais avançada do que a de reconhecer objetos aleatórios. Inclusive, em 2016, desenvolvemos um protótipo em que as pessoas podiam fotografar um texto, tocar nele e receber resultados de busca. Assim, poderiam, por exemplo, obter mais informações sobre uma banda anunciada em um pôster ou sobre um prato de massa que viam em um cardápio.
Essa ideia nos permitiu criar algo realmente útil de forma relativamente rápida. Desde então, a tecnologia de IA evoluiu muito, e conseguimos adicionar cada vez mais recursos ao Lens. As pessoas ainda adoram usar a ferramenta para textos, mas agora já podem buscar praticamente qualquer coisa de forma visual. E estamos constantemente incorporando novas funcionalidades baseadas em IA para tornar o Lens ainda mais eficiente ao responder às buscas visuais.
RLP: Tem sido fascinante acompanhar a evolução do recurso de texto até as amplas capacidades que o Google Lens oferece hoje. Teve algum momento marcante em que você o tenha usado?
LW: Uma das coisas mais incríveis foi ver meu filho aprender a usar o Google Lens antes mesmo de completar 2 anos. Quem tem filhos sabe: eles apontam para qualquer coisa que veem e perguntam “O que é isso?”. As crianças são naturalmente visuais.
Hoje, meu filho tem 6 anos e já é um usuário avançado. Ele anda pela casa perguntando sobre tudo o que vê. Recentemente, tivemos um momento engraçado: vimos um animal estranho no quintal e usamos o Google Lens para descobrir que era um filhote de gambá. Depois, com a busca multimodal do Lens, fizemos perguntas como até que tamanho ele poderia crescer. Descobrimos que chega a 60 cm — o que é um tanto assustador!
Mas meu filho não é o único a usar o Google Lens. Muitas vezes, ouço histórias de famílias que saem para caminhar pelo bairro, veem flores e querem saber o que são. O Lens oferece uma forma natural de fazer esse tipo de pergunta.
RLP: Como product lead do Circule para pesquisar, fiquei empolgada em lançar no ano passado essa forma intuitiva e gestual de explorar o mundo. Ela se baseia no seu trabalho pioneiro com o Google Lens. Como essa novidade mudou o jogo para a busca visual?
LW: O Circule para pesquisar foi transformador. As pessoas costumam pensar no Google Lens apenas como apontar a câmera e tirar uma foto para fazer uma pergunta. O Circule vai além disso, permitindo que o usuário contorne uma parte da imagem ou toque em um objeto em destaque. Dá até para circular trechos de capturas de tela ou publicações nas redes sociais, sem precisar trocar de aplicativo.
Assim que alguém vê algo e quer saber mais, pode perguntar na hora. Essa facilidade de uso é incrivelmente poderosa — e os usuários adoram.
O impacto tem sido especialmente grande no setor de compras. As pessoas se inspiram o tempo todo no que veem no YouTube e nas redes sociais. Um caso comum é ver um look incrível usado por um influenciador online e querer saber mais sobre ele. O Circule para pesquisar torna isso simples: basta marcar a parte da roupa para encontrá-la e até explorar estilos parecidos, dentro do orçamento, em lojas próximas.
RLP: É ótimo saber que as pessoas usam a busca visual para fazer compras. Quais outros casos de uso comuns você tem observado?
LW: Na Europa e na África, as compras são definitivamente o principal caso de uso — especialmente para itens difíceis de descrever com palavras, como roupas, artigos para o lar e acessórios.
Outra área em que vemos bastante uso é a educação. Em países como Índia e Indonésia, as tarefas escolares costumam ser entregues em inglês, então os estudantes usam o Google Lens para traduzi-las para idiomas como o hindi e compreender melhor as perguntas. Eles também podem obter ajuda com os deveres diretamente pelo Lens e pelo Google Search. Esse uso também está crescendo em outros mercados.
Uma tendência interessante que observamos é que as buscas no Google Lens relacionadas à natureza — como animais e plantas — são particularmente frequentes na Alemanha e no Japão. Parece que esses países têm um apreço especial pela natureza!
E cada vez mais pessoas estão usando a busca múltipla no Lens para expressar intenções mais complexas. Em vez de apenas compartilhar a foto de uma folha, por exemplo, também acrescentam uma pergunta complementar, como “Como cuidar desta planta?”.
RLP: Do ponto de vista dos negócios, como os profissionais de marketing podem aproveitar ao máximo a busca visual?
LW: Para que os produtos sejam encontrados, é fundamental que as marcas tenham muitas imagens de alta qualidade de seus itens, com metadados precisos e específicos que descrevam exatamente o que aparece nessas fotos.
Por exemplo, se você vende um vestido, disponibilize imagens que mostrem a peça de vários ângulos — sozinha e também em diferentes modelos, com tipos de corpo variados. Os usuários também tiram fotos de ângulos distintos, por isso essa diversidade visual e de contexto é valiosa para eles. Além disso, como vendedor, isso aumenta as chances de seu vestido se destacar nos resultados de busca.
Outro ponto, especialmente relevante no setor de moda, é que as coleções mudam muito rápido. Peças vendidas há seis meses podem já não estar mais disponíveis, mas ainda assim muita gente tenta encontrá-las. Talvez tenham visto alguém na TV usando um vestido específico e queiram saber o que é e onde comprar.
Se um produto desaparece completamente da internet, não conseguimos ajudar nessa busca. Por isso, é recomendável manter online as imagens e os itens antigos, incluindo informações sobre uma versão “nova temporada” ou sugerindo produtos semelhantes disponíveis. Essa é uma oportunidade para direcionar clientes para opções parecidas, mesmo que o original já não esteja mais à venda.
RLP: Por fim, o que o futuro reserva para a busca visual?
LW: O recente anúncio do Search Live, que será lançado em inglês nos EUA neste verão, acrescenta uma forma de interagir com a Busca que parece ainda mais natural.
Imagine que você está observando uma pintura e pode dizer em voz alta: “Esse estilo é realmente interessante, o que você pode me contar sobre ele?”. E então, ao descobrir que se trata de impressionismo, perguntar: “Quais artistas conhecidos trabalham nesse estilo?”. Esse é o tipo de experiência fluida e em tempo real que estamos desenvolvendo — simplificando a interação e adaptando-a à forma como as pessoas realmente pensam e exploram.
Isso faz parte das novas experiências baseadas em IA que estamos incorporando aos nossos produtos. Um avanço importante foi a integração da Visão geral criada por IA. Antes, podíamos mostrar apenas uma grade de imagens visualmente semelhantes. Agora, conseguimos oferecer uma compreensão mais detalhada e responder a perguntas mais complexas.
Outro objetivo essencial é facilitar a busca instantânea. O Circule para pesquisar tem sido fantástico para usuários de Android, e estamos expandindo essa experiência para a versão de desktop. O Google Lens já está integrado ao Chrome, o que significa que, quando surgir inspiração ou curiosidade a partir de algo que você vê, será possível explorar na hora.
Vamos continuar aprimorando essas experiências para que qualquer pessoa possa explorar sua curiosidade com a mesma naturalidade com que pensa — e assim, apontar e fazer perguntas, como faria uma criança de 2 anos, para obter as respostas que procura.