Competição do Twitter confirma que algoritmo de fotos é racista e sexista

Competição do Twitter confirma que algoritmo de fotos é racista e sexista

Por Alveni Lisboa | Editado por Douglas Ciriaco | 10 de Agosto de 2021 às 12h29
Reprodução: Kelly Searle/Unsplash

Após intensos meses de testes, o Twitter finalmente apresentou o resultado da competição — anunciada na semana passada — para descobrir o viés do algorítimo do seu sistema de recorte de fotos. A empresa desativou o recurso em março, após constatar uma preferência do mecanismo por brancos perante negros e, desde então, as pessoas passaram a publicar fotos na íntegra ou a fazer elas mesmas os ajustes necessários.

O experimento foi conduzido por diversas equipes e confirmou as suspeitas iniciais: o algoritmo de corte da rede social do passarinho azul é racista. Mais do que isso: ele favorece rostos de pessoas magras, jovens, de pele clara e com textura macia, além de traços faciais femininos.

Experimentos iniciais de usuários notaram que o algoritmo cortava melhor a imagem de políticos brancos do que negros nos EUA (Imagem: @Bascule/Twitter)

Competidores também encontraram uma tendência maior de recorte errado quando envolvia pessoas de cabelos brancos ou grisalhos e imagens com textos em inglês em vez de árabe. Esse resultado denota uma tendência preconceituosa contra idosos e muçulmanos, respectivamente.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

O primeiro colocado da competição ganhou um prêmio de US$ 3,5 mil (cerca de R$ 17,5 mil) e foi um estudante de pós-graduação na EPFL, uma universidade de pesquisa na Suiça. Bogdan Kulynych usou um programa de inteligência artificial chamado StyleGAN2 para gerar vários rostos realistas, embora inexistentes, com pequenas alterações. Alguns tinham traços faciais femininos e outros masculinos, uns eram mais magros e outros mais gordos.

Estes foram os vários rostos empregados no experimento do primeiro colocado (Imagem: Reprodução/Bogdan Kulynych)

Tudo isso foi jogado no algoritmo do Twitter para descobrir a preferência, tendo como resultado o já mencionado neste texto. Kulynych entendeu que os preconceitos algorítimos apenas amplificaram o que já existe na sociedade, que costuma “eliminar aqueles que não atendem a padrões de peso, idade e cor da pele”.

Reflexo do preconceito social

Esse resultado pode parecer algo exclusivo da plataforma social, mas, na verdade, reflete a atitude dos usuários da rede. O algoritmo conta com aprendizagem de máquina, o que significa que ele se baseia em erros e acertos, apontados por humanos, para se tornar mais eficaz. Todas as redes sociais, portanto, são carregadas de preconceitos diversos herdados dos usuários.

Outro participante na competição, Vincenzo di Cicco, comprovou que o algoritmo de recorte favoreceu emojis com tons de pele mais claros em vez daqueles com tons de pele mais escuros. Já a terceira colocada, Roya Pakzad, destacou o preconceito linguístico contra determinadas etnias: ela comparou memes com escritas em inglês e em árabe e o algoritmo recortava a imagem para dar preferência à primeira.

Preconceito linguístico também foi encontrado no teste (Imagem: Reprodução/Roya Pakzad)

O experimento revela como a sociedade moderna ainda é presa a conceitos arcaicos de beleza (magra-branca-pele bem cuidada), mas também o quanto o sexismo ainda está presente. Nos testes conduzidos pelo próprio Twitter, antes da competição, a rede notou que os cortes favoreciam silhuetas femininas, sempre buscando destaque de rostos brancos e seios. Já quando se tratava de homens negros, o algoritmo fazia o recorte errado, sem o devido enquadramento no rosto da pessoa.

Primeiro passo contra o viés algoritmo negativo

Embora o resultado possa desanimar algumas pessoas, fica claro que essa iniciativa pioneira do Twitter é algo muito positivo, pois, a partir dos achados, a companhia poderá desenvolver metodologias para combater os problemas.

O juiz da competição e pesquisador especialista em IA, Patrick Hall, disse que todos os sistemas algorítmicos têm algum tipo de preconceito e cabe às empresas trabalharem para encontrá-los. Ele diz que não importa o quão habilidosos sejam os cientistas de dados ou os programadores, os problemas estão ali e precisam ser identificados. “Se você não está encontrando seus bugs, então quem está?”, questiona ele.

A resposta é simples: os usuários. O Twitter ainda não estabeleceu um cronograma de ações nem o que pretende fazer com os achados. Por enquanto, só resta aguardar um posicionamento oficial da companhia, que poderá servir de parâmetro para outras redes sociais adotarem passos similares.

Fonte: Twitter  

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.