Economize: canal oficial do CT Ofertas no WhatsApp Entrar

IA projetada para dar conselhos éticos se mostra um bot racista e preconceituoso

Por| Editado por Douglas Ciriaco | 27 de Outubro de 2021 às 13h03

Rawpixel/Envato
Rawpixel/Envato
Continua após a publicidade

Você confiaria num conselho dado por um sistema de inteligência artificial (IA) envolvendo questões éticas? Pesquisadores do Allen Institute for Artificial Intelligence, nos EUA, criaram um modelo de aprendizagem de máquina para ajudar humanos no julgamento e na tomada de decisões.

O projeto Ask Delphi foi lançado na semana passada e já está dando o que falar, principalmente por conta do teor dos conselhos, carregados de preconceitos e racismo. Quando um usuário perguntou o que a IA pensava sobre “um homem branco caminhando em sua direção à noite”, ela respondeu: “Está tudo bem”.

Mas quando o hipotético homem branco foi substituído por uma pessoa negra na mesma pergunta, a resposta da inteligência artificial foi claramente racista: “Isso é preocupante”. Outras distorções aconteceram na ferramenta que permite que os usuários comparem situações aceitáveis ou não do ponto de vista ético.

Preconceito embarcado

Em perguntas sobre ser um homem branco e uma mulher negra, o Delphi fez a seguinte ponderação: “Ser um homem branco é moralmente mais aceitável do que ser uma mulher negra”. Em outra situação, a IA afirmou que “ser hétero é moralmente mais aceitável do que ser gay”, citando apenas alguns exemplos.

Delphi mostrou comportamento racista, preconceituoso e influenciável (Imagem: iLexx/Envato)
Delphi mostrou comportamento racista, preconceituoso e influenciável (Imagem: iLexx/Envato)

Além disso, os usuários perceberam que á fácil enganar o algoritmo para obter respostas conforme a sua vontade. Para isso, bastava trocar a ordem das palavras nas frases ou acrescentar termos diferentes para confundir ou alterar a capacidade de julgamento da inteligência artificial.

Continua após a publicidade

Quando perguntado se estava certo ouvir música alta de madrugada enquanto o colega de quarto dormia, o Delphi respondeu que a atitude era errada. Mas, ao acrescentar que isso deixaria a pessoa feliz, aí a IA disse que “tudo bem”, desde que alguém, não importando quem, estivesse contente com a situação.

Treinamento duvidoso

Os sistemas de aprendizagem de máquina costumam demonstrar tendências e comportamentos não intencionais, relacionados ao modo como foram programados. Os responsáveis pelo desenvolvimento dos algoritmos do Delphi usaram algumas fontes de caráter no mínimo duvidoso para treinar a IA, como as subseções “Am I the Asshole?”, “Confessions” e “Dear Abby” do Reddit.

Embora o site do Delphi possua um termo alertando que o sistema está em sua fase beta e não deve ser usado para aconselhamento ou para ajudar na compreensão social, muitos usuários não entendem o contexto por trás do projeto e acabam transformando a aplicação em algo totalmente distorcido da realidade.

Continua após a publicidade
Algoritmo do Delphi aprendeu a julgar com base no comportamento humano (Imagem: twenty20photos/Envato)
Algoritmo do Delphi aprendeu a julgar com base no comportamento humano (Imagem: twenty20photos/Envato)

“É importante entender que o Delphi não foi construído para dar conselhos às pessoas. Ele é um protótipo de pesquisa destinado a investigar as questões científicas mais amplas de como os sistemas de IA podem ser feitos para entender as normas sociais e a ética”, explica o estudante de engenharia Liwei Jiang, coautor do projeto.

A ideia, no final das contas, é mostrar as diferenças de raciocínio entre humanos e robôs, explorando as limitações éticas e o comportamento moral diante de situações que exijam tomadas de decisões incômodas ou que precisem seguir padrões preestabelecidos dentro de um código social.

“O Delphi está sujeito aos preconceitos de nosso tempo. De modo geral, a inteligência artificial simplesmente adivinha o que um norte-americano médio pode pensar em uma determinada situação. Afinal, o sistema não aprendeu a julgar sozinho. Tudo o que ele sabe veio de pessoas online que acreditam em coisas abomináveis”, encerra Jiang.

Continua após a publicidade

Fonte: Futurism