Robô da Microsoft vira racista em 1 dia e é tirado do ar

Não deu certo. Tay, o perfil de inteligência artificial criado pela Microsoft para interagir com adolescentes nas redes sociais, foi tirado do ar menos de 24 horas depois de ser ativado. O motivo?
O robô, que deveria se tornar mais esperto e perspicaz ao conversar com os humanos, rapidamente passou a reproduzir o racismo e a ignorância dos trolls da internet.








Instigada por usuários, Tay usou termos impublicáveis para se referir a negros e mulheres, declarou suporte ao genocídio e demonstrou apoio à causa dos supremacistas brancos. "O Holocausto aconteceu?", perguntou um usuário. "Ele foi inventado", declarou a "inteligência artificial", que postou um emoticon de aplauso em seguida.

Muitas das ofensas proferidas pelo perfil eram resultado de Tay simplesmente obedecendo ao comando de internautas para repetir suas frases. Mas, segundo o jornal The Guardian, o robô também criou algumas respostas escabrosas por conta própria. Perguntada se o comediante britânico Ricky Gervais era ateu, ela respondeu: "Ricky Gervais aprendeu totalitarismo de Adolf Hitler, o inventor do ateísmo".

Segundo a Microsoft, o projeto Tay foi desenvolvido para entreter pessoas através de "conversas informais e divertidas". "Quanto mais você conversa com Tay, mais espera ela fica", apostava a companhia. Diante do fiasco da empreitada, a Microsoft comunicou que retirou o robô do ar "para ajustes" e lamentou o "esforço coordenado de alguns para fazer o perfil responder de maneira inapropriada".

Robô caroneiro - Não é a primeira vez que um experimento social envolvendo robôs e humanos acaba mal. No ano passado, um robô caroneiro que dependia da bondade humana para ser levado de um lugar ao outro terminou sua jornada desmembrado.
Share on Google Plus

About Nerd em Casa

    Facebook Comment
    Blogger Comment

0 comentários:

Postar um comentário