
Rose La Prairie, Group Product Manager per la Ricerca Google e Product Lead per Cerchia e Cerca, è responsabile dello sviluppo di nuovi modi per esplorare il mondo che ci circonda. In questa occasione si confronta con Lou Wang, cofondatore di Google Lens e Senior Director, che è responsabile dei prodotti di AI multimodale della Ricerca Google, tra cui Lens, Cerchia e Cerca e la ricerca vocale.
Immagina di scoprire la vera storia della ricerca visiva da una persona che non solo ha contribuito a svilupparla, ma la usa quotidianamente.
Stiamo parlando di Lou Wang.
Wang è cofondatore di Google Lens, che ogni mese viene utilizzato da 1,5 miliardi di persone per cercare informazioni su ciò che vedono. Di fatto, Lens ha registrato una crescita del 65% su base annua1 con oltre 100 miliardi di ricerche visive già effettuate quest'anno.2
Wang non è però solo un architetto di questa tecnologia, ma è anche un utente esperto. Di recente ha usato Lens con il figlio di sei anni per identificare un cucciolo di opossum nel loro cortile.
In questo articolo ci parla del suo percorso personale con la ricerca visiva, oltre che delle tendenze globali e delle strategie indispensabili per i professionisti del marketing per entrare in contatto con il pubblico in questo mondo visivo.
Rose La Prairie (RLP): In qualità di cofondatore di Google Lens, sei stato in prima linea nella rivoluzione del modo in cui interagiamo con le informazioni. Quando Lens è stato lanciato nel 2017, qual è stato il momento "eureka" che ha rivelato l'immenso potenziale della ricerca visiva?
Lou Wang (LW): La tecnologia della ricerca visiva era piuttosto agli albori quando abbiamo iniziato a lavorare a Lens. Esistevano modelli di machine learning personalizzati per aiutare a identificare animali (come razze di cani e gatti) e piante, ma, in generale, la ricerca visiva non era ancora molto affidabile.
Ironia della sorte, uno dei momenti "eureka" è stato quando ci siamo resi conto che potevamo creare prodotti di ricerca visiva concentrandoci sul testo. Il testo è ovunque: su cartelli, documenti, menu. La capacità di Google di comprendere il testo era superiore a quella di comprendere oggetti casuali. Nel 2016 avevamo persino un prototipo in cui le persone potevano fotografare un testo, toccarlo e ottenere i risultati di ricerca. Ad esempio, potevano scoprire di più su una band su un poster o su un piatto di pasta che stavano guardando in un menu.
Questo aspetto ci ha permesso di creare qualcosa di veramente utile in tempi relativamente brevi. Da allora, la tecnologia AI è migliorata enormemente e siamo stati in grado di introdurre sempre più funzionalità in Lens. Le persone amano ancora usare Lens per il testo, ma ora gli utenti possono cercare praticamente qualsiasi cosa visivamente. Inoltre, incorporiamo costantemente nuove funzionalità basate sull'AI per rendere Lens ancora più efficace nel rispondere alle query di ricerca visiva delle persone.
RLP: È stato affascinante vedere l'evoluzione dal testo alle vaste funzionalità che Google Lens offre oggi. C'è stato un modo particolarmente memorabile in cui l'hai usato tu stesso?
LW: Una delle cose più belle è stata vedere mio figlio capire come usare Google Lens prima ancora di compiere due anni. Chi ha figli sa che indicano qualsiasi cosa vedano e chiedono: "Cos'è?". I bambini sono intrinsecamente visivi.
Mio figlio ha sei anni ed è un utente esperto. Gira per casa facendo domande su tutto quello che vede.
Di recente abbiamo vissuto un momento divertente quando abbiamo visto uno strano animale nel nostro cortile. Abbiamo usato Google Lens per scoprire che si trattava di un cucciolo di opossum. Poi, utilizzando le funzionalità di ricerca multimodale di Lens, abbiamo posto delle domande, ad esempio per sapere quanto diventa grande questo animale. A quanto pare fino a 60 cm, il che è piuttosto spaventoso!
Abbiamo anche scoperto che gli opossum vivono in Nord America, mentre i possum vivono in Australia.

Mio figlio non è però l'unico a usare Google Lens. Spesso sento parlare di famiglie che fanno passeggiate nel quartiere, vedono fiori e si chiedono cosa siano. Lens offre un modo naturale per porre queste domande.
RLP: In qualità di Product Lead di Cerchia e Cerca, l'anno scorso sono stata entusiasta di lanciare questo modo intuitivo e basato sui gesti per esplorare il mondo, reso possibile dal tuo lavoro pionieristico con Google Lens. In che modo ha cambiato le regole del gioco per la ricerca visiva?
LW: Cerchia e Cerca ha rappresentato una svolta. Spesso le persone pensano a Google Lens come a uno strumento che permette di scattare una foto con la fotocamera per porre una domanda. Cerchia e Cerca va oltre permettendo di cerchiare una parte dell'immagine o di toccare un oggetto presente nell'immagine. Gli utenti possono persino "cerchiare" screenshot o post sui social media senza mai cambiare app.
Nel momento in cui qualcuno vede qualcosa e ha una domanda, può porla immediatamente. Questa facilità d'uso è incredibilmente potente e le persone la adorano.
Ha avuto un impatto particolarmente significativo per lo shopping. Le persone si lasciano costantemente ispirare da ciò che vedono su YouTube e sui social media. Un caso d'uso comune è vedere online un outfit alla moda indossato da un influencer e volerne sapere di più. Cerchia e Cerca rende tutto più semplice. Gli utenti possono "cerchiare" un capo di abbigliamento per trovarlo ed esplorare anche stili simili nella loro fascia di prezzo nei negozi nelle vicinanze.
RLP: È fantastico sapere che le persone usano la ricerca visiva per lo shopping. Quali altri casi d'uso comuni avete riscontrato?
LW: In Europa e in Africa, lo shopping è sicuramente il caso d'uso principale, in particolare per gli articoli difficili da descrivere a parole, come abbigliamento, articoli per la casa e accessori.
Un'altra area in cui registriamo un largo utilizzo è l'istruzione. In paesi come l'India e l'Indonesia, i compiti vengono spesso assegnati in inglese, quindi gli studenti usano Google Lens per tradurli in lingue come l'hindi per comprendere meglio le domande. Possono anche ricevere aiuto per i compiti direttamente da Lens e dalla Ricerca. Questo caso d'uso sta crescendo anche in altri mercati.
Un'altra tendenza interessante che abbiamo osservato è che le query di Google Lens relative al mondo naturale, come animali e piante, sono particolarmente diffuse in Germania e Giappone. Sembra che in questi paesi ci sia un apprezzamento speciale per la natura.
Inoltre, stiamo notando che le persone utilizzano sempre di più la ricerca multipla in Lens per esprimere intenzioni più complesse. Non si limitano a condividere una foto di una foglia, ad esempio, ma pongono anche una domanda di accompagnamento, quale "Come mi prendo cura di questa pianta?".

RLP: Dal punto di vista del business, come possono i professionisti del marketing sfruttare al meglio la ricerca visiva?
LW: Per quanto riguarda la capacità di farsi scoprire, è importante che i brand abbiano molte immagini di prodotti di alta qualità, con metadati accurati e specifici che descrivano il contenuto delle immagini.
Ad esempio, se vendi un vestito, fornisci immagini che mostrino l'articolo da più angolazioni sia da solo sia su diversi modelli con diverse forme del corpo. Gli utenti scattano foto da angolazioni diverse, quindi trovano preziosa questa varietà visiva e questo contesto. Inoltre, per un retailer, questa varietà aumenta le probabilità che le immagini di abiti si distinguano nei risultati di ricerca.
Un altro aspetto, particolarmente rilevante nel settore dell'abbigliamento, è che le stagioni cambiano molto rapidamente. Gli articoli venduti sei mesi fa potrebbero non essere più disponibili. Eppure, molte persone stanno ancora provando a trovarli. Magari hanno visto qualcuno in TV con un vestito particolare e vogliono sapere di cosa si tratta e dove può essere acquistato.
Se un prodotto scompare completamente da internet, non possiamo più rispondere a questa domanda. È utile mantenere online i prodotti e le immagini precedenti in modo che siano accessibili e aggiungere informazioni su una versione "nuova stagione" o suggerire articoli simili disponibili. Questa è un'opportunità per indirizzare i clienti verso articoli simili disponibili, anche se quello originale non lo è più.
Per farsi scoprire, è importante che i brand abbiano molte immagini di qualità dei prodotti, con metadati precisi e specifici
RLP: Infine, cosa riserva il futuro alla ricerca visiva?
LW: Il recente annuncio di Search Live (che sarà disponibile in inglese negli Stati Uniti questa estate) aggiunge un modo di interagire con la Ricerca che sembra ancora più naturale.
Immagina di guardare un dipinto e di poter dire ad alta voce: "Questo stile è davvero interessante, cosa mi puoi dire al riguardo?". E poi, quando scopri che è un dipinto impressionista, potresti chiedere: "Quali sono alcuni artisti famosi di questo stile?". È questo il tipo di funzionalità fluida e in tempo reale che stiamo sviluppando, rendendo l'interazione più semplice e più in linea con il modo in cui le persone pensano ed esplorano.
Fa parte delle nuove esperienze basate sull'AI che stiamo introducendo nei nostri prodotti. Uno sviluppo significativo è stato l'integrazione di AI Overview. Se prima potevamo mostrare una griglia di immagini visivamente simili, ora possiamo fornire interpretazioni più dettagliate e rispondere a domande più complesse.
Un altro aspetto fondamentale è rendere più facile la ricerca "al momento". La funzionalità Cerchia e Cerca è stata fantastica per gli utenti Android e stiamo estendendo queste esperienze ai computer. Google Lens è ora integrato nel browser Chrome, il che significa che quando ti viene un'ispirazione o ti sorge una domanda in merito a qualcosa che vedi, hai la possibilità di esplorare tutto direttamente lì.
Continueremo a migliorare queste esperienze, consentendo a chiunque di soddisfare la propria curiosità nel modo più naturale possibile. In questo modo, le persone possono indicare e porre domande, proprio come farebbe un bambino di due anni, per ottenere le informazioni che stanno cercando.