Google, 5 sfide per sviluppare una intelligenza artificiale

Google spiega come affrontare i problemi pratici nel sviluppare una intelligenza artificiale, e prevenire incidenti nel mondo reale.

Scritto da

Simone Ziggiotto

il

Chris Olah di Google Research ha enunciato le cinque grandi questioni che si devono affrontare per pviluppare una piu’ intelligente e sicura intelligenza artificiale. I progressi in questo settore stanno procedendo in direzioni che ancora noi non conosciamo, ma che porteranno alla nascita di dispositivi che fino a qualche tempo fa potevamo vedere solo nei film di fantascienza, come robot con in grado di comportarsi ‘quasi’ come un umano.

Ma chi ha visto film come Terminator o altri dello stesso genere sa bene che la tecnologia non puo’ essere perfetta, e ci sono questioni da affrontare per affrontare i problemi pratici, e prevenire gli incidenti nei sistemi di intelligenza artificiale nel mondo reale. A differenza dei film, nella nostra vita reale se Google con la sua tecnologia creerà macchine che porteranno alla distruzione del genere umano non arriverà il supereroe di turno a salvarci.

Chris Olah di Google Research ha contribuito alla stesura di un documento tecnico in cui vengono elencati i problemi concreti da affrontare quando si sviluppa una intelligenza artificiale. Tale documento è stato realizzato in collaborazione con Google, OpenAI, Stanford University e University of California, Berkeley, e definisce gli aspetti da affrontare prima di aprire le porte all’Intelligenza artificiale.

Evitare effetti collaterali negativi è la prima questione da risolvere: come si puo’ garantire che un sistema di intelligenza artificiale non vada a disturbare l’ambiente in cui si trova in modo negativo nel perseguire i propri obiettivi? Ad esempio un robot mentre pulisce la casa per errore fa cadere un vaso o dei bicchieri perché pulisce troppo velocemente.

Secondo punto è quello di evitare il Reward Hacking: una intelligenza artificiale dovrebbe portare a termine compiti correttamente, piuttosto che utilizzare soluzioni alternative – ad esempio un robot che pulisce casa e copre la sporcizia con del materiale che non riconosce come essere della sporcizia.

Il terzo punto riguarda la Supervisione scalabile (Scalable Oversight): una intelligenza artificiale non dovrebbe aver bisogno di un feedback costante per essere efficace. Ad esempio, se un sistema di AI ottiene un feedback da una persona (come puo’ essere il robot a cui viene detto di non pulire in determinati orari perchè potrebbe disturbare), questo feedback dovrebbe essere utilizzato in modo efficiente e non dovrebbe essere ricordato ogni due giorni.

Il quarto punto riguarda l’Esplorazione Sicura (Safe Exploration): una intelligenza artificiale non dovrebbe danneggiare se stessa o il suo ambiente, mentre è in fase di apprendimento. Come si puo’ dunque garantire che un sistema di IA non faccia mosse esplorative in un ambiente con ripercussioni negative? Per esempio, un robot non dovrebbe andare a prendere l’acqua per riempire il secchio dal water in bagno, o non dovrebbe avvicinarsi e pulire con un èanno bagnato una presa elettrica.

L’ultimo punto è la Robustness to Distributional Shift: una intelligenza artificiale dovrebbe essere in grado di riconoscere un nuovo ambiente e lo stesso svolgere efficacemente in esso. Come si puo’ garantire che un sistema di IA riconosca e si comporta bene quando si trova in un ambiente molto diverso dal suo ambiente di formazione? Ad esempio, dopo che un robot ha imparato a pulire un ufficio, e dopo un paio di mesi viene spostato in un altro edificio, anche qui dovrebbe essere altrettanto bravo a compiere il suo dovere.

Il documento è stato pubblicato pochi giorni dopo l’uscita dei risultati di uno studio condotto dall’Università di Oxford e dall’azienda di Google chiamata Deep Mind che ha portato alla luce l’ipotesi secondo cui un pulsante rosso di emergenza potrebbe tornare utile per disattivare una Intelligenza artificiale qualora finisse fuori controllo, riprendendo i casi proposti dal cinema in film come Terminator. Oggi alcune forme di intelligenza artificiale, anche nei loro limiti vengono considerate tali, si possono trovare nei sistemi Google Home, Amazon Eco, HomeKit di Apple, e altre ancora, che assistono il consumatore durante la giornata – in auto, in casa, sullo smartphone.

Cosa ne pensate delle macchine dotate di una intelligenza artificiale? Riuscireste a convivere in futuro con questi dispositivi? Scriveteci nel box dei commenti qui sotto.

Impostazioni privacy