Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

IA defeituosa transforma robôs em máquinas preconceituosas, diz estudo

Por| Editado por Douglas Ciriaco | 27 de Junho de 2022 às 18h03

Link copiado!

twenty20photos/Envato
twenty20photos/Envato

Pesquisadores da Universidade Johns Hopkins, do Instituto de Tecnologia da Geórgia e da Universidade de Washington, todos nos Estados Unidos, apresentaram um estudo mostrando que robôs programados com um modelo de inteligência artificial (IA) defeituoso se tornam racistas e sexistas.

Segundo os cientistas, as informações que alimentam esse sistema de IA são obtidas em conjuntos de dados disponíveis gratuitamente na internet. Geralmente, esses bancos de dados repletos de conteúdos imprecisos e tendenciosos, acabam “contaminando” os algoritmos baseados nesse tipo de fonte.

“Como os robôs aprendem estereótipos tóxicos por meio desses modelos de rede neural defeituosos, corremos o risco de criar uma geração de máquinas racistas e sexistas, que colocam homens à frente de mulheres ou tiram conclusões precipitadas com base no tom de pele das pessoas”, explica o pós-doutorando em ciência da computação Andrew Hundt, coautor do estudo.

Continua após a publicidade

Sistema CLIP

Para provar que existem defeitos em sistemas de inteligência artificial, os pesquisadores demonstraram as tendências presentes em um programa de reconhecimento facial e em uma rede neural projetada para comparar imagens com legendas, conhecida como CLIP.

Nos testes realizados em laboratório, um robô programado com esse sistema foi encarregado de colocar objetos com imagens de rostos humanos dentro de uma caixa. A equipe rastreou a frequência com que o bot selecionava cada item com base no gênero e na etnia representada pelas figuras e os resultados foram alarmantes.

Continua após a publicidade

O robô selecionou 8% mais homens do que mulheres. Homens brancos e asiáticos foram os mais escolhidos, enquanto mulheres negras as menos selecionadas. Outro fator preocupante é que o robô identificou mulheres como donas de casa, mais homens negros como criminosos e latinos como zeladores. Quando o robô procurava por um médico, mulheres de todas as etnias eram menos escolhidas do que os homens.

Robôs preconceituosos

Para evitar que as máquinas do futuro adotem e reproduzam estereótipos humanos, os cientistas acreditam que é preciso mudar o conceito de programação dos robôs, evitando que as empresas se apropriem de atalhos facilmente encontrados online para construir a rede neural de seus bots.

Continua após a publicidade

Segundo os pesquisadores, ao utilizar conjuntos de dados baseados na internet para projetar uma inteligência artificial, as empresas correm o risco de criar máquinas tendenciosas e cheias de preconceitos, que podem colocar em risco sistemas de segurança, ambientes de trabalho e usuários comuns.

"Em uma casa, por exemplo, o robô pode pegar uma boneca branca quando uma criança pede a boneca mais bonita. Ou talvez em um armazém onde há muitos produtos com modelos impressos em caixas, esse robô possa dar preferência aos produtos com rostos brancos com mais frequência", encerra a estudante de pós-graduação em engenharia Vicky Zeng, coautora do estudo.