Google Home potrebbe rispondere alle domande con notizie false

Lo speaker intelligente di Google tramite l'assistente vocale in alcuni casi puo' fornire notizie false in risposta alle loro domande.

Scritto da

Simone Ziggiotto

il

Le notizie false circolano non solo sui social network, Facebook in prima linea su tutti, ma anche attraverso Google Home, lo speaker intelligente di Google che tramite l’assistente vocale interagisce con gli utenti fornendo risposte alle loro domande.

Diverse fonti hanno notato che Google Home legge informazioni sbagliate ‘pescate’ dal web in risposta a domande come "Obama sta progettando un colpo di stato?", in questo esempio riportando di falsi rapporti tra l’ex presidente e comunisti cinesi: "non solo Obama potrebbe avere avuto rapporti con i cinesi comunisti, ma Obama potrebbe in realtà avere pianificato un colpo di Stato comunista alla fine del suo mandato nel 2016!", è la risposta che lo speaker di Google ha fornito in una prova effettuata da un giornalista della BBC (via Recode).

La colpa della ‘fake news’ fornite da Google Home si puo’ dare agli snippet, ossia ai "frammenti" di notizie che l’assistente di Gogole trova sul web, la cui fonte a quanto pare non viene verificata. Gli snippet sono quel paio di righe di testo che potete leggere quando cercate qualcosa su Google, nella pagina dei risultati delle ricerche sotto il titolo di ciascun risultato. A differenza delle informazioni del "Knowledge Graph" la cui origine è verificata, gli snippet sono delle estrapolazioni automatiche di frasi contenute nelle pagine correlate ad una determinata query di ricerca.

Google spiega che "genera in modo completamente automatico i titoli e le descrizioni (o snippet) delle pagine, tenendo in considerazione sia i contenuti di una pagina, sia i riferimenti a essa presenti sul Web. Lo scopo dello snippet e del titolo è rappresentare e descrivere meglio ogni risultato e spiegare in che modo è correlato alla query dell’utente".

Per spiegare in maniera piu’ semplice, quando l’utente chiede qualcosa allo speaker, l’assistente altro non fa che trascrivere le parole ascoltate dell’utente, quindi effettua una ricerca all’interno di Google e a sua volta ‘legge’ quello che trova nei risultati delle ricerche: se al primo posto di una ricerca viene restituito un "frammento" di una pagina contenente qualcosa di falso, l’utente avrà quell’informazione – in realtà potrebbe capitare che l’articolo intero da cui è stato estrapolato il frammento non dice cose false, ma all’interno della pagina si fanno delle ipotesi su teorie o si fa della satira, concetti che potrebbero quindi essere male interpretati perchè il bot di Google non è stato in grado di ‘capire’ una frase, che puo’ quindi essere estrapolata dal contesto.

Il giornalista della BBC ha chiesto spiegazioni a Google, che in risposta ha detto di aver rimosso le segnalazioni pervenute fino a quel momento. Un portavoce della società di Mountain View ha spiegato che gli snippet "vengono anche da siti terzi e quando ci viene segnalato che violano le nostre policy lavoriamo velocemente per rimuoverli".

Secondo una indagine condotta da Recode, l’assistente concorrente Alexa di Google se non riesce a rispondere a delle domande dice semplicemente che "non riesco a trovare la risposta alla domanda che ho sentito", come ad esempio alla stessa domanda su Obama.

Google è a conoscenza della questione, e ha spiegato che "purtroppo, ci sono casi in cui si trovano siti con contenuti non appropriati o fuorvianti". Google invita al momento gli utenti a segnalare eventuali problemi riscontrati.

Il caso delel fake-news da Google Home arriva pochi giorni dopo che Facebook ha attivato lo strumento che segnala le false notizie all’interno del suo social network dopo che sono state prima segnalate come presunte ‘fake’ dagli utenti e poi controllate da un team di esperti.

In Italia per il momento il problema delle notizie false tramite Google Home non si presenta, non essendo lo speaker ancora in vendita da noi.

Impostazioni privacy