Twitter contro il Deepfake prepara nuove regole

Twitter dice basta alla condivisione di immagini non reali e manipolate per fare sembrare vere cose che non lo sono.

Scritto da

Simone Ziggiotto

il

Twitter, come parte del suo impegno di aggiornare le sue regole in base a come cambiano i comportamenti delle persone online, sta lavorando ad una nuova politica per prevenire il diffondersi dei media manipolati ottenuti con la tecnica del deepfake. Prima di apportare modifiche, tuttavia, la società sta chiedendo consigli ai propri utenti.

La nuova politica affronterà i contenuti che "sono stati significativamente modificati o creati in un modo che cambia il significato/lo scopo originale o fa sembrare che si siano verificati determinati eventi che non si sono effettivamente verificati" e in particolare media che potrebbero minacciare la sicurezza fisica di qualcuno o portare al verificarsi di danni nel mondo reale, "offline".

Il deepfake – parola coniata nel 2017 – è una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali. Viene usata per creare falsi video ritraenti celebrità che fanno cose che in realtà non hanno mai fatto ma può anche essere usato per creare fake news, bufale e truffe online.

L’account @TwitterSafety ha attivato una conversazione – che qui sotto abbiamo replicato – in cui sta chiedendo agli utenti la loro opinione sull’argomento perchè vuole "considerare in che modo i deepfake vengono condivisi su Twitter in contesti potenzialmente dannosi, per ascoltare e considerare le loro prospettive nel processo di sviluppo delle nuove politiche e vuole essere trasparente riguardo al suo approccio e ai suoi valori".

Nelle prossime settimane, Twitter raccoglierà quindi feedback in modo che gli utenti potranno aiutare la società a perfezionare questa nuova politica prima che diventi effettiva.

standard

Impostazioni privacy