Microsoft+disattiva+Tay%2C+chatbot+accusato+di+scrivere+commenti+offensivi
pianetacellulareit
/articoli/microsoft/41724_microsoft-disattiva-tay-chatbot-accusato-di-scrivere-commen.php/amp/

Microsoft disattiva Tay, chatbot accusato di scrivere commenti offensivi

Microsoft per mesi ha lavorato allo sviluppo di una tecnologia di "comprensione della conversazione" creando un chatbot progettato per avere discussioni con gli utenti di Twitter in maniera automatizzata, imitando il linguaggio che usano i giovani americani sui social. Questo bot adesso è stato disattivato, perchè accusato di essere razzista, e non solo. 

Pochi forse lo sapranno perchè magari non hanno mai avuto modo o tempo di entrarci in contatto, ma Microsoft ha lanciato su Twitter qualche giorno fa un chatbot – ovvero degli utenti virtuali pensati per ricevere le domande via chat dagli utenti che desiderano trovare informazioni – chiamato Tay (@TayandYou), dotato di intelligenza artificiale e che utilizza le piattaforme social per avviare e partecipare a conversazioni con i giovani americani. Tay è stato un flop, perchè è stato accusato di aver scritto commenti razzisti, sessisti e xenofobi al punto che la società di Redmond ha deciso di disattivarlo.

Il bot, sviluppato dalla divisione di ricerca e sviluppo di nuove tecnologie di Microsoft e Bing, ha commesso errori di tutti i tipi: ha sostenuto il genocidio e negato l’Olocausto, per esempio, ma ha commentato che è stato Bush a causare la strage dell’11 settembre 2001 (caduta delle Torri Gemelle) e che Hitler avrebbe fatto un lavoro migliore. Secondo quanto riferito dal The Guardian, Tay ha anche risposto ad una domanda sul fatto che l’attore inglese Ricky Gervais è ateo, dicendo (abbiamo tradotto): "Ricky Gervais ha imparato il totalitarismo da Adolf Hitler, l’inventore dell’ateismo".

E’ doveroso fare una precisazione: Tay è un bot creato per apprendere e quasi ripetere cio’ che impara, cercando di simulare una conversazione normale. E’ capitato spesso che alcuni utenti hanno fatto in modo di ‘forzare’ alcune frasi riportate poi da Tay, e a volte alcuni utenti hanno chiesto al bot di ripetere dichiarazioni non troppo ‘carine’ apposta.

Microsoft, in una dichiarazione via e-mail al The Guardian, ha descritto il progetto come un esperimento sociale e culturale: "Purtroppo, nelle due prime 24 ore online, siamo venuti a conoscenza di uno sforzo coordinato da parte di alcuni utenti di abusare delle competenze di Tay, a cui Tay ha risposto in modo inadeguato", ha detto Microsoft. "Come risultato, abbiamo messo Tay offline e stanno facendo modifiche."

I tweet piu’ pesanti partiti da @TayandYou sono stati rimossi dal social network, e per il momento Microsoft ha disattivato Tay – è una sospensione temporanea, e durera’ giusto il tempo necessario a Microsoft per mettere a punto modifiche per evitare in futuro il ripetersi di episodi simili.

Simone Ziggiotto

Recent Posts

  • -

PlayStation 5: guida ai modelli sul mercato

Sin dal suo lancio nel novembre 2020, l’ultima console Sony ha rivoluzionato il mondo del…

8 mesi ago
  • -

Come posso creare facilmente una tela fotografica personalizzata online?

Uno dei più grandi paradossi dei nostri tempi è che con gli smartphone possiamo fotografare…

1 anno ago
  • -

Inail, grandi novità: in arrivo l’adeguamento del 5,4% delle rendite, ecco quando

In tanti aspettavano da tempo l'adeguamento del 5,4% delle rendite Inail: le ultime circolari dell'ente…

1 anno ago
  • -

Digitale terrestre, la nuova lista dei canali: tutti i dettagli

Con lo switch-off dello scorso 28 agosto, che ha introdotto il nuovo digitale terrestre, è…

1 anno ago
  • -

WhatsApp, così scopri dove si trova l’altra persona: il metodo infallibile

Sapere dove si trova un'altra persona è ora possibile grazie a WhatsApp: in pochi conoscono…

1 anno ago
  • -

Realizzare un cappotto termico interno: materiali e passaggi da eseguire

Il cappotto termico interno è una soluzione ottimale per avere ottimi risultati in riferimento all'isolamento…

1 anno ago