Facebook sotto inchiesta per l'esperimento emozionale

 

Facebook nel mirino dell'Information Commissioner's Office (ICO) nel Regno Unito per aver, secondo le accuse, manipolato le emozioni di 700 suoi utenti al fine di condurre un test

Scritto da Simone Ziggiotto il 03/07/14 | Pubblicata in Social Network | Archivio 2014

 

Facebook sotto inchiesta per l'esperimento emozionale

Facebook nel mirino dell'Information Commissioner's Office (ICO) nel Regno Unito per aver, secondo le accuse, manipolato le emozioni di 700 suoi utenti al fine di condurre un test.

In seguito alle polemiche degli utenti sull'esperimento di Facebook che ha manipolato le emozioni di un gruppo di suoi iscritti, le istituzioni si muovono per far luce sulla questione. Nel Regno Unito è stata infatti aperta un'indagine dall'Information Commissioner's Office (ICO), pari al nostro Garante della Privacy, per capire se con il test il social network ha manipolato i dati personali degli iscritti. Il Financial Times riporta che vi è la possibilità per Facebook di ricevere una multa da pagare di 500mila sterline. Anche l'Irlanda starebbe indagando sul caso.

Tempo addietro ci siamo occupati dei risultati emersi dallo studio "La prova sperimentale del contagio emotivo attraverso le reti sociali"  che ha dimostrato che la condivisione di post felici finivano per influenzare positivamente l'umore di chi li legge e, di conseguenza, i post che a loro volta i lettori scrivono. I risultati dello studio sono derivati da un'analisi di parole positive e negative contenute in oltre tre milioni di post, per un totale di 122 milioni di parole, scritte da 689.003 utenti di Facebook scelti a caso. E' stato dunque scoperto che leggere lo status di amici o parenti che contengono emozioni positive provoca il cosiddetto effetto "contagio emotivo", generando messaggi con contenuti emotivamente positivi.

Per raggiungere questi risultati, un gruppo di ricercatori e scienziati di Facebook e delle Cornell University e University of California hanno alterato per un’intera settimana, dall’11 al 18 gennaio 2012, l’algoritmo che determina cosa viene mostrato nella bacheca di 689,003 persone, che sono state divise in due gruppi, per un totale di oltre tre milioni di aggiornamenti.

Tuttavia, la scorsa settimana è emerso che i "partecipanti" di questo studio non avevano idea che stavano partecipando. Ancora più importante, non sapevano che i loro feed di notizie venivano manipolati per manipolare le loro emozioni.

Il professor Jeff Hancock, condirettore del Social Media Lab della Cornell, ha fatto sapere che l'algoritmo che ha selezionato i contenuti è stato modificato per una settimana, cosicché le storie contenenti parole associate ad emozioni positive fossero selezionate con minore frequenza. Di conseguenza, sono stati raccolti messaggi con un numero maggiore di parole legate ad emozioni negative. Nel corso dell'esperimento sono stati esaminati 4 milioni di messaggi con parole legate ad emozioni "positive" e 1,8 milioni come "negative".

In sua difesa, il social network ha detto che si possono effettuare questo tipo di esperimenti perché la sua politica di privacy che ciascun utente accetta quando si iscrive a Facebook afferma che "[Facebook] può utilizzare le informazioni che riceviamo su di te per le operazioni interne, tra cui la risoluzione dei problemi, l'analisi dei dati, prove, ricerca e miglioramento del servizio." Forbes, tuttavia, ha analizzato una precedente revisione della politica sulla privacy che Facebook adotta negli USA, evidenziando come questa sia cambiata da quando lo studio è stato fatto.

Ora nel Regno Unito si sta cercando di far luce su come questo studio è stato condotto, e per Facebook si parla di multa di 500mila sterline nel caso in cui il social network abbia manipolato i dati personali degli iscritti.

 

Notizie per Categoria