Google annuncia nuove funzioni visive per Ricerca e Lens

Google annuncia nuove funzioni visive per Ricerca e Lens

Animali e oggetti che cercheremo in Google Ricerca potranno prendere vita nel mondo reale, mentre Lens dirà quali sono i piatti piu' popolari dei ristoranti e li mostrerà prima di ordinare.

 

Scritto da , il 07/05/19

Seguici su

 
 

A volte, il modo più semplice per comprendere nuove informazioni è vederle. Alla sua conferenza per gli sviluppatori, I/O 2019, Google ha annunciato nuove funzioni di Ricerca e Google Lens che utilizzano la fotocamera, la visione artificiale e la realtà aumentata (AR) per sovrapporre informazioni e contenuti all'ambiente fisico per aiutare a svolgere le attività nel corso della giornata.

"Tutte queste funzioni di Google Ricerca e Google Lens forniscono informazioni visive che aiutano ad esplorare il mondo e a svolgere le tue attività nel corso della giornata mettendo le informazioni e le risposte dove sono più utili, proprio nel mondo che hai di fronte" ha commentato Aparna Chennapragada, VP di Lens e AR in Google.

AR in Google Ricerca

Con le nuove funzionalità di realtà aumentata direttamente nelle ricerche di Google gli utenti potranno visualizzare e interagire con oggetti 3D direttamente nei risultati delle ricerche e posizionarli direttamente nello spazio reale che li circonda, in scala e in maniera dettagliata. Ad esempio, in una demo, sul palco di I/O 2019, è stato cercato 'squalo bianco lungo 18 piedi' su Google Ricerca ed è cmoparso in tre dimensioni nella pagina dei risultati uno suqalo bianco lungo 18 piedi, quindi è stata attivata la fotocamera dello smartphone usato per la demo e lo squalo digitale è stato sovrapposto nella realtà.

La realtà aumentata in Google Ricerca sarà disponibile a partire da questo mese, quindi quando si cercheranno animali selezionati sarà possibile non solo leggere informazioni testuali e guardare immagini di essi, sarà mostrato anche un rendering 3D dell'animale con la possibilità di sovrapporlo all'ambiente reale.

Google sta anche collaborando con partner come NASA, New Balance, Samsung, Target, Visible Body, Volvo, Wayfair e altri per far emergere i propri contenuti nella Ricerca. Quindi, che si stia studiando l'anatomia umana a scuola o effettuando come un paio di sneakers, sarà possibile interagire con i modelli 3D dell'oggetto/animale e metterli nel mondo reale, direttamente dalla pagina dei risultati della ricerca. 

ar-search-shark.gifar-search-visible-body.gif

Nuove funzionalità in Google Lens

Google Lens è la tecnologia che, attraverso l'obiettivo della fotocamera, riconosce oggetti e luoghi per mostrare informazioni su di essi facendo uso del machine learning (ML), della visione artificiale e decine di miliardi di informazioni nel Knowledge Graph. Le persone hanno già chiesto a Google Lens più di un miliardo di domande sulle cose che vedono. A I/O 2019, Google ha annunciato una evoluzione di Lens per fornire più risposte visive a domande visive.

Poniamo caso di essere al ristorante e si sta cercando di capire cosa ordinare. Inaquadrando il menu con lo smartphone e attivando Google Lens, la tecnologia può evidenziare automaticamente quali piatti sono popolari, mostrando informazioni digitali sullos chermo direttamente nel menu fisico inquadrato dall'obiettivo della fotocamera. Toccando un piatto, si puo' vedere come appare e cosa dice la gente, grazie a foto e recensioni da Google Maps. Per fare questo, Lens prima deve identificare tutti i piatti del menu, cercando cose come il font, lo stile, la dimensione e il colore per differenziare i piatti dalle descrizioni. Successivamente, corrisponde ai nomi dei piatti le relative foto e recensioni per quel ristorante raccolte da Google Maps (se sono disponibili).

ar-search-visible-body.gif

Secondo Google, l'obiettivo della fotocamera dello smartphone può essere particolarmente utile quando ci si trova in ​​un luogo sconosciuto e non si conosce la lingua. Grazie a Google Lens, è ora possibile puntare la fotocamera su un testo e Lens rileverà automaticamente la lingua e sovrapporrà la traduzione direttamente sopra le parole originali, in più di 100 lingue.

ar-search-visible-body.gif

Google sta anche lavorando su altri modi per collegare utili informazioni digitali a cose nel mondo fisico. Ad esempio, al de Young Museum di San Francisco, da questa estate sarà possibile usare Lens per vedere storie nascoste sui dipinti, direttamente dai curatori del museo, basterà inquadrare un'opera d'arte e attendere la comparsa delle informazioni. Oppure, se si vede un piatto che si vorrebbe cucinare in un numero della rivista Bon Appetit, sarà possibile puntare la fotocamera del telefono sulla ricetta per attivare la guida interattiva per preparare il piatto selezionato.

ar-search-visible-body.gif

Portare Lens su Google Go

Sono oltre 800 milioni gli adulti in tutto il mondo che hanno difficoltà nel leggere cose come orari degli autobus o moduli bancari. Quindi Google si è chiesta: "E se usassimo la fotocamera per aiutare le persone che hanno difficoltà a leggere?"

Puntando la fotocamera su un testo, Lens può ora leggerla ad alta voce, mettendo in evidenza le parole mentre vengono pronunciate, in modo che l'utente possa seguire e comprendere il contesto completo di ciò che vede. E' anche possibile toccare una parola specifica per cercarla e apprenderne la definizione. Questa funzione viene introdotta per la prima volta in Google Go, la app Ricerca per gli utenti di smartphone piu' economici. Lens in Google Go occupa poco più di 100 KB e funziona su telefoni che costano meno di 50 dollari.

ar-search-visible-body.gif

Condividi questa notizia

Resta aggiornato su Google annuncia nuove funzioni visive per Ricerca e Lens


 
 

Commenti e Opinioni

 
 
 
 

Promozioni Consigliate

 
 
Vuoi restare aggiornato ?