Twitter constata que seu algoritmo de corte de fotos é mesmo racista
Por Alveni Lisboa • Editado por Douglas Ciriaco | •
O algoritmo do Twitter tem uma falha peculiar de excluir pessoas negras e homens na hora de cortar fotos. A afirmação foi feita pela própria companhia, que já prometeu rever isso e acrescentou que deve deixar a decisão de ajustar ou não as imagens para as cada utilizador da rede. Desde outubro de 2020, as pessoas haviam notado essa falha.
- Twitter vai estudar seus próprios algoritmos para descobrir se eles são nocivos
- Algoritmo de fotos do Twitter é racista e nem a rede social sabe o porquê
- Twitter vai remover tweets com conteúdo racista e xenófobo da plataforma
O estudo, anunciado há cerca de um mês, foi conduzido por três de seus pesquisadores em aprendizado de máquina após críticas de usuários sobre o modo de visualização de imagens que cortava os rostos de pessoas negras das fotos. O mesmo fato ocorre apenas 8% nas mulheres e apenas 4% em indivíduos brancos.
A análise apontou várias razões possíveis para o fato, desde falhas com fundos de imagens até a cor dos olhos, mas sem se furtar da culpa pelo problema. “O recorte baseado em aprendizado de máquina é fundamentalmente falho porque restringe a expressão do usuário de sua própria identidade e valores em vez de impor um olhar normativo sobre qual parte da imagem é considerada a mais interessante”, ressaltaram os pesquisadores.
Os pesquisadores também avaliaram se o algoritmo favorecia o corte nos corpos das mulheres, uma falha conhecida como "olhar masculino" ou objetificação. Isso porque pessoas no Twitter também identificaram casos em que a inteligência artificial escolheu o peito ou as pernas de uma mulher como uma característica importante. Os achados, contudo, não apontaram para este sentido.
Para combater os problemas encontrados, o Twitter começou a testar desde março a exibição de fotos sem cortes nos aplicativos móveis. Após o feedback positivo sobre essa experiência, o recurso foi estendido para todos, com a possibilidade de uma visualização real da imagem no campo do compositor de tuítes, para que os autores saibam como seus posts ficarão antes de publicarem.
Algoritmo de saliência
O Twitter começou a usar o chamado "algoritmo de saliência" em 2018 para exibir fotos parciais, como uma estratégia para melhorar a consistência no tamanho das fotos na linha do tempo e permitir que as pessoas vejam mais tuítes rapidamente. Este algoritmo funciona com base na estimativa do que uma pessoa pode querer ver primeiro em uma imagem.
Os modelos de saliência são treinados sobre como o olho humano vê uma imagem e estabelece isso para priorizar o que provavelmente é mais importante para a maioria das pessoas. Após alguns cálculos, ele analisa o local com a pontuação mais elevada e faz o recorte automático com base no resultado. Em uma foto, por exemplo, a tendência seria olhar primeiro para os rostos e só depois para outros pontos.
Esses resultados são exemplo do impacto único dos sistemas de inteligência artificial, tanto para o positivo quanto para o negativo e as possibilidades de manipulação.
Falhas similares em outras redes
Trabalho desenvolvido em conjunto pela Microsoft e Instituto de Tecnologia de Massachusetts em 2018 descobriu que os sistemas de análise facial identificam erroneamente os negros com mais frequência do que os brancos. Outro levantamento conduzido pelo governo dos Estados Unidos também chegou à mesma conclusão. A Amazon, também em 2018, descartou uma ferramenta de recrutamento de IA que mostrava preconceito contra as mulheres.
O Facebook e o Instagram também estiveram envolvidos em polêmica recente após o algoritmo das redes considerar inapropriada a imagem de uma mulher negra e acima do peso em pose sensual, coisa que não ocorre com as magras e brancas. Para acabar com a polêmica, as plataformas mudaram o modo de processamento do algoritmo para permitir topless, desde que encubram mamilos e seios.
As causas para que isso ocorra é que não são exatamente claras. Há quem aponte machismo ou racismo, já que os algoritmos geralmente são programados por homens brancos. Por outro lado, pode se tratar de algo não-intencional, como falhas de programação ou alguma dificuldade em configurar códigos aplicáveis a pessoas com características tão diferentes.
Fonte: Twitter