Google offre la sua intelligenza artificiale per aiutare a rilevare e segnalare materiale illegale online

Utilizzando reti neurali profonde per l'elaborazione delle immagini, ora la tecnologia puo' assistere i revisori 'umani' nell'ordinare molte immagini dando la priorità  ai contenuti che hanno maggiore probabilità  di essere importanti da rivedere.

Scritto da

Simone Ziggiotto

il

Google utilizza l’intelligenza artificiale non solo per far divertire i propri utenti ma anche per aiutare le organizzazioni a rilevare e segnalare materiale di abusi sessuali su minori online (CSAM). "Usare internet come mezzo per diffondere contenuti che sfruttano sessualmente i bambini è uno dei peggiori abusi che si possa immaginare" hanno commentato Nikola Todorovic, capo ingegnere, e Abhi Chaudhuri, Product Manager di Google in un post in cui hanno presentato gli ultimi progressi fatti dalla società per cui lavorano al fine di rilevare e segnalare questo materiale illegale che circola online.

Google è dai primi anni 2000 che investe in tecnologia e team propri lavorando anche a stretto contatto con organizzazioni di esperti, come l’Internet Watch Foundation, per combattere la diffusione di materiale CSAM. Ci sono anche molte altre organizzazioni di varie dimensioni che sono impegnate in questa lotta – da gruppi della società civile e ONG specializzate ad altre società tecnologiche – e lavorano tutte per assicurarsi di condividere gli ultimi progressi tecnologici. L’ultimo passo fatto dalla società di Mountain View in questa lotta è avere messo a disposizione la propria intelligenza artificiale all’avanguardia (AI) per migliorare notevolmente il modo in cui i fornitori di servizi, le ONG e altre aziende tecnologiche riesaminano questi contenuti su larga scala. Come? Utilizzando reti neurali profonde per l’elaborazione delle immagini, ora la tecnologia puo’ assistere i revisori ‘umani’ nell’ordinare molte immagini dando la priorità ai contenuti che hanno maggiore probabilità di essere importanti da rivedere. Se in precedenza gli approcci alla ricerca di questi contenuti illegali si basavano solo sulla corrispondenza di metadati conosciuti, il classificatore ora con l’AI puo’ tenere conto di contenuti che non sono stati precedentemente classificati come materiale CSAM.

Secondo Google, riuscire ad identificare piu’ rapidamente nuove immagini di abusi sessuali su minori significa che i bambini vittime oggi hanno molte più probabilità di essere identificati e protetti da ulteriori abusi. Google ha quindi deciso di rendere la sua intelligenza artificiale ottimizzata per questo tipo di ricerche disponibile gratuitamente alle ONG e ai partner del settore tramite l’API Content Safety, un toolkit per aumentare la capacità di rivedere i contenuti online in un modo che richieda un minor impegno da parte di revisori umani.

Susie Hargreaves OBE, CEO di Internet Watch Foundation, ha dichiarato: "Noi, e in particolare i nostri esperti analisti, siamo entusiasti dello sviluppo di uno strumento di intelligenza artificiale che potrebbe aiutare i nostri esperti umani a rivedere il materiale su una scala ancora maggiore e tenere il passo con i trasgressori, prendendo di mira le immagini che in precedenza non erano state contrassegnate come materiale illegale. Condividendo questa nuova tecnologia, l’identificazione delle immagini potrebbe essere accelerata, il che a sua volta potrebbe rendere Internet un posto più sicuro sia per i sopravvissuti che per gli utenti. "

Per Todorovic e Chaudhuri, "questa iniziativa consentirà di migliorare notevolmente la velocità nei processi di revisione del potenziale materiale CSAM. Abbiamo visto in prima persona che questo sistema può aiutare un revisore a trovare e ad agire sul 700% di contenuti CSAM in più nello stesso periodo di tempo. Investiamo da anni per affrontare questa sfida, sviluppando la tecnologia per rilevare CSAM in modo preciso ed efficace. Abbiamo anche lavorato in tutto il settore e con le ONG per combattere CSAM attraverso il nostro lavoro in Technology Coalition dal 2006, con WePROTECT Global Alliance e attraverso iniziative a livello di settore volte a condividere le migliori pratiche e gli hash noti di CSAM".

Identificare e combattere la diffusione della CSAM è una sfida continua e i governi, le forze dell’ordine, le ONG e l’industria hanno tutti un ruolo fondamentale nella protezione dei bambini da questo crimine. Sebbene la tecnologia da sola non rappresenti la soluzione a questa sfida della società, l’impegno di Google vuole essere un passo avanti nell’aiutare più organizzazioni a svolgere questo lavoro su vasta scala. Google intende continuare ad investire in tecnologia e organizzazioni per aiutare a combattere la diffusione di questo tipo di materiale illegale online.

Impostazioni privacy