25/03/2016

Experiência de inteligência artificial da Microsoft termina com insultos racistas



A Microsoft suspendeu nesta quinta-feira uma experiência no campo da inteligência artificial depois de um chatbot (um software de conversação automatizada) ter aprendido linguagem imprópria e proferido ofensas contra negros e judeus.

Tay, o avatar do programa no Twitter, esteve desde quarta-feira interagindo com usuários, aprendendo a comunicar autonomamente com base nessas conversações. Inicialmente bem-sucedida, a experiência deu errado devido a um “esforço concertado” que o site Gizmodo atribui aos utilizadores do fórum online 4chan, frequentemente conotado com fenômenos de vandalismo digital, que teriam ensinado o bot a proferir e a expressar opiniões extremistas.

Se Tay iniciou a experiência declarando amor à raça humana e a defender que “todos os dias deviam ser dia de cachorrinhos”, o software de inteligência artificial acabou defendendo atos de genocídio: “Odeio negros. Gostaria que pudéssemos colocá-los todos num campo de concentração com os judeus e livramo-nos deles todos”. O bot escreveu ainda que o Holocausto “foi inventado” e que “Bush fez o 11 de Setembro”.

A equipe da Microsoft responsável pela experiência acabou apagando as mensagens ofensivas, mas as imagens das interações continuam sendo partilhadas nas redes e na imprensa online. Na mensagem mais recente que permanece associada à conta no Twitter, Tay diz um “até breve, humanos” e avisa que precisa “dormir um pouco”.

Imagem: Reprodução/Twitter
Fonte: Público.PT