Youtube per essere una piattaforma Responsabile segue questi 4 principi

Grazie a 48 aggiornamenti delle sue linee guida e norme, negli ultimi 18 mesi Youtube é riuscito a ridurre dell'80 per cento le visualizzazioni dei video rimossi in un secondo momento per violazioni delle regole.

Scritto da

Simone Ziggiotto

il

Google ha condiviso gli sforzi che ha compiuto nel corso degli ultimi anni per far fronte alle responsabilità di tutela dei propri utenti senza compromettere gli aspetti positivi di una piattaforma aperta quale è la sua Youtube. In un post sul proprio blog, la società ha spiegato di avere organizzato facendo affidamento ai principi delle quattro ‘R’: Remove, Raise, Reward e Reduce.

Ecco spiegati questi quattro principi:
Remove: rimuovere il prima possibile contenuti in violazione delle norme della comunità di Youtube
Raise: dare evidenza a voci autorevoli quando le persone cercano informazioni e notizie dell’ultima ora
Reward: ricompensare creatori di contenuti e artisti affidabili
Reduce: Ridurre la diffusione di contenuti che oltrepassano le linee normative di Google/Youtube

YouTube ha spiegato nel suo blogpost che rimuove contenuti dannosi dalla piattaforma sin da quando è aperta ma negli ultimi anni, con l’aumento delle persone che possono condividere online, ha dovuto dedicare a questo impegno via via piu’ tempo. Youtube ha notato che il maggior numero di rimozioni sono dovuti in parte alla rimozione di commenti, video e canali preesistenti e precedentemente ammessi. Ad aprile 2019, Youtube ha annunciato aggiornamenti anche delle sue norme sulle molestie, incluse quelle tra creator. 

Nell’elenco che segue, Google ha anche riassunto i principali miglioramenti messi a punto dal 2016 a questa parte. Grazie a 48 aggiornamenti delle sue linee guida e norme, negli ultimi 18 mesi la società è riuscita a ridurre dell’80% le visualizzazioni dei video rimossi in un secondo momento per violazioni delle norme (gennaio 2018 – giugno 2019).

17 novembre 2016:
lanciate nuove funzionalità che permettono ai genitori di bloccare canali specifici su Youtube Kids.
18 giugno 2017:
integrato il machine learning alla segnalazione manuale di contenuti estremisti già esistenti.
31 luglio 2017:
costituito il Global Internet Forum per contrastare il terrorismo insieme ai partner del settore.
1 agosto 2017:
esteso alle NGO il programma Tristed Flagger.
4 dicembre 2017:
integrato il machine learning alla segnalazione manuale per la rilevazione di contenuti in potenziale violazione delle norme sull’incitazione all’odio e la sicurezza dei minori.
Gennaio 2018:
lanciato l’Intelligence Desk, un team che monitora l’informazione, i social media e i report degli utenti per individuare nuove tendenze in merito ai contenuti inappropriati prima che si diffondano.
23 aprile 2018:
rilasciato il primo Youtube Community Guidelines Enforcement Report, che chiarisce ulteriormente il lavoro della società. Lo stesso giorno, Youtube ha raggiunto la maggior parte del suo contributo all’obiettivo di Google di dedicare 10mila persone che lavorano alla rimozione di contenuti in violazione.
1 dicembre 2019:
Youtube ha aggiornato le norme per proibire i livestreaming ai minori non accompagnati da un adulto.
15 gennaio 2019:
aggiornato le linee guida per chiarire quando i contenuti che contengono challange (sfide) o prank violano le linee guida della community.
19 febbraio 2019:
sviluppato un nuovo sistema di blocco (o strike) all’interno delle linee guida della Community per fornire agli utenti avvisi e maggior trasparenza.
28 febbraio 2019:
Youtube ha disabilitato i commenti sui video che mostrano minori in situazioni di rischio.
5 giugno 2019:
Youtube ha aggiornato le norme per proibire contenuti suprematisti e di incitazione all’odio.
1 luglio 2019:
Youtube ha lanciato una nuova funzionalità automatica per mettere in attesa di revisione da parte dei creator commenti potenzialmente inappropriati.
21 agosto 2019:
Youtube ha aggiornato le linee guida per proibire che contenuti per adulti vengano rivolti alle famiglie in titoli e descrizioni. 

L’impegno di Youtube nel rimuovere i contenuti dannosi, dal 2016 ad oggi

Impostazioni privacy