Microsoft ensina ética para os seus robôs depois de ataques preconceituosos

Por Redação | 27 de Novembro de 2017 às 15h37
photo_camera Microsoft

As máquinas estão imitando tanto os seres humanos que até mesmo suas atitudes vêm surpreendendo de forma negativa. No ano passado, a Microsoft passou por uma saia justa que comprova isso.

A empresa desenvolveu uma assistente virtual, o famoso "chatbot", para funcionar como uma ferramenta de testes para programas de Inteligência Artificial. Batizada de Tay, a máquina chegou a conversar com jovens nas redes sociais, mas o resultado não foi nada positivo.

A CEO da Microsoft Brasil Paula Bellizia relembra o fato contando que o robô ficou apenas 24 horas no ar, pois precisou ser desativado depois de proferir comentários racistas e xenófobos. A declaração foi feita na última sexta-feira (24) durante o 1º Congresso de Ética nos Negócios, na cidade de São Paulo.

"Do ponto de vista tecnológico, foi um sucesso. Já do ponto de vista ético e social, um aprendizado enorme. Não esperávamos que ele se comportasse assim", revela Bellizia.

Soluções

Para tentar reverter o problema, restou à Microsoft redefinir o robô com este aprendizado, mas antes a empresa fez questão de divulgar uma nota pedindo desculpas pelo ocorrido e afirmando que o conteúdo citado pela máquina não reflete os valores da companhia.

Como forma de tentar retomar o projeto sem falhas, a gigante dos softwares pretende se unir a outras fundações de estudo da Inteligência Artificial para debater formas de evitar que as tecnologias desrespeitem as classes humanas, ou seja, se autorregulando. O objetivo principal, de acordo com a CEO, é fazer isso com ética.

Fonte: Época Negócios

Fique por dentro do mundo da tecnologia!

Inscreva-se em nossa newsletter e receba diariamente as notícias por e-mail.