Facebook ha condotto un esperimento psicologico su quasi 700 mila iscritti al più popolare social network, alterando in parte le informazioni da loro comunicate per studiare il "contagio emotivo". Un test che ha sollevato dubbi e polemiche perchè è stato condotto ad insaputa degli utenti interessati.
Recentemente, abbiamo dato notizia dello studio che ha dimostrato che la condivisione di post felici finivano per influenzare positivamente l'umore di chi li legge e, di conseguenza, i post che a loro volta i lettori scrivono. Gli studiosi hanno quindi scoperto che la leggere lo status di amici o parenti che contengono emozioni positive provoca il cosiddetto effetto "contagio emotivo", generando messaggi con contenuti emotivamente positivi.
I risultati dello studio, pubblicati sulla rivista Proceedings of the National Academy of Science Social Science, sono derivati da un'analisi di parole positive e negative contenute in oltre tre milioni di post, per un totale di 122 milioni di parole, scritte da 689.003 utenti di Facebook scelti a caso.
Per raggiungere questi risultati, un gruppo di ricercatori e scienziati di Facebook e delle Cornell University e University of California hanno alterato per un’intera settimana, dall’11 al 18 gennaio 2012, l’algoritmo che determina cosa viene mostrato nella bacheca di 689,003 persone, che sono state divise in due gruppi, per un totale di oltre tre milioni di aggiornamenti.
Quello che è ora emerso, tuttavia, è che i "partecipanti" di questo studio non avevano idea che stavano partecipando. Ancora più importante, non avevano idea che i loro feed di notizie venivano manipolati per manipolare le loro emozioni.
Come riporta il Telegraph, Facebook ha avuto il via libera di condurre lo studio dalle clausole del contratto che si accettano quando ci si iscrive al sito, quando l'utente accetta che Facebook possa eseguire "operazioni interne, tra cui la risoluzione dei problemi, l'analisi dei dati, prove, ricerca e miglioramento del servizio" .
Il professor Jeff Hancock, condirettore del Social Media Lab della Cornell, ha fatto sapere che l'algoritmo che ha selezionato i contenuti è stato modificato per una settimana, cosicché le storie contenenti parole associate ad emozioni positive fossero selezionate con minore frequenza. Di conseguenza, sono stati raccolti messaggi con un numero maggiore di parole legate ad emozioni negative. Nel corso dell'esperimento sono stati esaminati 4 milioni di messaggi con parole legate ad emozioni "positive" e 1,8 milioni come "negative".
Alcuni si chiedono se questo tipo di ricerca è stata condotta con un'etica. L'idea che Facebook e le sue accademie collaboratrici avevano il preciso intento di fare credere che alcuni dei suoi utenti fossero dei miserabili trasformando le loro emozioni al negativo non è piaciuta. Come riporta l'Atlantic, Susan Fiske, un professore di psicologia di Princeton che ha curato lo studio, ha ammesso che aveva delle preoccupazioni: "Ero preoccupato fino a quando ho chiesto agli autori, i quali hanno detto che il loro comitato di revisione istituzionale locale aveva approvato [lo studio] e apparentemente per il fatto che Facebook manipola il Feed News tutto il tempo... capisco perché la gente ha preoccupazioni".
Adam DI Kramer, un membro del team che gestisce i dati in Facebook e un co-autore dello studio, ha affrontato le preoccupazioni circa lo studio in un post pubblicato domenica su Facebook: "La ragione per cui abbiamo fatto questa ricerca è perché ci preoccupiamo per l'impatto emotivo di Facebook sulle persone che utilizzano il nostro prodotto", ha scritto Kramer. "Abbiamo ritenuto che fosse importante studiare la preoccupazione comune che gli amici vedendo del contenuto positivo porta a sentirsi negativi o lasciato fuori. Allo stesso tempo, eravamo preoccupati che l'esposizione alla negatività degli amici potrebbe portare le persone a evitare di visitare Facebook."