Microsoft disattiva Tay, chatbot accusato di scrivere commenti offensivi

E' stato accusato di razzismo e non solo il chatbot Tay lanciato da Microsoft su Twitter e progettato per avere discussioni con gli utenti in maniera automatizzata, imitando il linguaggio che usano i giovani americani sui social.

Scritto da

Simone Ziggiotto

il

Microsoft per mesi ha lavorato allo sviluppo di una tecnologia di "comprensione della conversazione" creando un chatbot progettato per avere discussioni con gli utenti di Twitter in maniera automatizzata, imitando il linguaggio che usano i giovani americani sui social. Questo bot adesso è stato disattivato, perchè accusato di essere razzista, e non solo. 

Pochi forse lo sapranno perchè magari non hanno mai avuto modo o tempo di entrarci in contatto, ma Microsoft ha lanciato su Twitter qualche giorno fa un chatbot – ovvero degli utenti virtuali pensati per ricevere le domande via chat dagli utenti che desiderano trovare informazioni – chiamato Tay (@TayandYou), dotato di intelligenza artificiale e che utilizza le piattaforme social per avviare e partecipare a conversazioni con i giovani americani. Tay è stato un flop, perchè è stato accusato di aver scritto commenti razzisti, sessisti e xenofobi al punto che la società di Redmond ha deciso di disattivarlo.

Il bot, sviluppato dalla divisione di ricerca e sviluppo di nuove tecnologie di Microsoft e Bing, ha commesso errori di tutti i tipi: ha sostenuto il genocidio e negato l’Olocausto, per esempio, ma ha commentato che è stato Bush a causare la strage dell’11 settembre 2001 (caduta delle Torri Gemelle) e che Hitler avrebbe fatto un lavoro migliore. Secondo quanto riferito dal The Guardian, Tay ha anche risposto ad una domanda sul fatto che l’attore inglese Ricky Gervais è ateo, dicendo (abbiamo tradotto): "Ricky Gervais ha imparato il totalitarismo da Adolf Hitler, l’inventore dell’ateismo".

E’ doveroso fare una precisazione: Tay è un bot creato per apprendere e quasi ripetere cio’ che impara, cercando di simulare una conversazione normale. E’ capitato spesso che alcuni utenti hanno fatto in modo di ‘forzare’ alcune frasi riportate poi da Tay, e a volte alcuni utenti hanno chiesto al bot di ripetere dichiarazioni non troppo ‘carine’ apposta.

Microsoft, in una dichiarazione via e-mail al The Guardian, ha descritto il progetto come un esperimento sociale e culturale: "Purtroppo, nelle due prime 24 ore online, siamo venuti a conoscenza di uno sforzo coordinato da parte di alcuni utenti di abusare delle competenze di Tay, a cui Tay ha risposto in modo inadeguato", ha detto Microsoft. "Come risultato, abbiamo messo Tay offline e stanno facendo modifiche."

I tweet piu’ pesanti partiti da @TayandYou sono stati rimossi dal social network, e per il momento Microsoft ha disattivato Tay – è una sospensione temporanea, e durera’ giusto il tempo necessario a Microsoft per mettere a punto modifiche per evitare in futuro il ripetersi di episodi simili.

Impostazioni privacy