Search On 2022, Google punta a rendere il suo motore di ricerca piu’ naturale e intuitivo

Google potenzia i suoi strumenti di ricerca visiva grazie ai progressi nella visione artificiale e nei modelli predittivi: ecco le novità  in arrivo nei prossimi mesi.

Scritto da

Simone Ziggiotto

il

Google ha tenuto lo scorso 28 settembre l’evento Search On 2022 per condividere lo stato del suo lavoro per portare le ultime novità in fatto di intelligenza artificiale nei suoi prodotti, e in particolare per rendere il suo motore di ricerca più naturale e intuitivo. 

L’azienda di Mountain View a Search On quest’anno ha mostrato come i suoi progressi nell’intelligenza artificiale le consentano di "andare ben oltre la casella di ricerca per creare esperienze di ricerca che funzionano più come le nostre menti e che sono multidimensionali come lo siamo noi come le persone" come ha detto il Senior Vice President di Google, Prabhakar Raghavan, in un post sul blog The Keyword di Google. "Immaginiamo un mondo in cui sarai in grado di trovare esattamente quello che stai cercando combinando immagini, suoni, testo e voce, proprio come fanno le persone naturalmente. Sarai in grado di porre domande, con meno parole – o addirittura nessuna – e capiremo comunque esattamente cosa intendi. E sarai in grado di esplorare le informazioni organizzate in un modo che abbia senso per te."

Nel 2017, Google ha introdotto Lens, uno strumento di ricerca visiva progettato per consentire di comprendere ciò che l’obiettivo di uno smartphone vede. Lens è in grado di riconoscere miliardi di cose, per aiutare ad identificare piante, animali, punti di riferimento e altro ancora. Lens permette anche di tradurre oltre 100 lingue e persino di ascoltare la corretta pronuncia delle parole e delle frasi riconosciute. Da un paio di anni, Lens è anche in grado di risolvere le equazioni quadratiche. Oggi, Lens si trova integrato nell’app Fotocamera di molti dispositivi Android mentre sui dispositivi senza questa integrazione è possibile scaricare l’app ‘Google Lens’ dal Play Store. Per rendere la ricerca visiva ancora più naturale, all’inizio di quest’anno Google ha introdotto prima in beta negli Stati Uniti la ‘ricerca multipla’, un nuovo modo di eseguire ricerche utilizzando immagini e testo contemporaneamente. A Search On, l’azienda ha annunciato l’espansione di questa multisearch in oltre 70 lingue nei prossimi mesi. Nel frattempo, entro la fine di quest’anno, arriverà in ingglese negli Stati Uniti lo strumento "multisearch near me". Questa ricerca multipla, per esempio, consentirà di fotografare un oggetto sconosciuto (come un piatto o una pianta), quindi di trovarlo in un luogo locale nelle vicinanze (come un ristorante o un negozio di giardinaggio).

Multisearch in Lens consente di effettuare ricerche utilizzando immagini e testo contemporaneamente

Lens aggiornato traduce meglio il testo sovrapposto alle immagini

Raghavan ha rivelato che Google viene utilizzato dalle persone per tradurre il testo in immagini oltre 1 miliardo di volte al mese, in oltre 100 lingue, per poter leggere vetrine, menu, cartelli e altro ancora. Grazie ai progressi dell’intelligenza artificiale, Google ha messo a punto la tecnologia di apprendimento automatico chiamata "Generative Adversarial Networks (GAN)", capace di combinare parole e contesto, come le immagini di sfondo. Lens sarà così in grado di meglio tradurre il testo che ha sullo sfondo delle immagini complesse, anche animate.

A Search On 2022, Google ha parlato anche di un paio di novità di Maps, il suo servizio per la navigazione. Dopo avere introdotto le informazioni sul traffico in tempo reale sulle mappe, sono in arrivo nuove informazioni attraverso lo strumento chiamato ‘local knowledge‘ che consentirà di vedere direttamente sulla mappa informazioni sui luoghi famosi nelle vicinanze grazie alle foto e alle informazioni condivise dalla community della piattaforma. Annunciata anche la disponibilità delle vedute aeree fotorealistiche di "Vista Immersiva" per più di punti di riferimento globali, oltre 250. Annunciata a I/O 2022, questa consente di vedere viste multidimensionali di un’area con informazioni come il tempo, il traffico e l’affollamento sovrapposti. Migliora anche Live View, la ‘vista dal vivo’ introdotta nel 2019 in Maps per aiutare le persone a spostarsi più facilmente grazie alla realtà aumentata, sovrapponendo le indicazioni per raggiungere la destinazione (frecce, direzioni e indicatori di distanza) sul mondo reale visto attraverso la fotocamera dello smartphone. La novità è ‘ricerca Live View‘, la quale consente di trovare un luogo attraverso la vista dal vivo: per esempio, basterà prendere in mano il telefono e inquadrare con la fotocamera ciò che ci circonda per vedere comparire sullo schermo informazioni utili come la posizione di negozi o sportelli per prelevare denaro. Altra novità di Maps che vale la pena ricordare, anche se già introdotta alcune settimane fa, sono i tragitti eco-friendly che propongono percorsi più efficiente in termini di consumo di carburante per spostarsi verso una direzione. 

Esempio di local knowledge in Google Maps

In Google Maps oltre 250 viste aeree fotorealistiche di punti di riferimento globali disponibili

Google Maps – esempio di ricerca in Live View

E’ possibile (ri)vedere l’intera conferenza stampa Search On 2022 nel player qui sotto, mentre chi ha poco tempo può guardare il video che riassume gli annunci principali. 

Google Search On 2022 | Highlights di 9 minuti

Google Search On 2022 | Replay integrale

Impostazioni privacy