Algoritmo de fotos do Twitter é racista e nem a rede social sabe o porquê
Por Ramon de Souza |
Alguns indivíduos desacreditam dos avisos de especialistas a respeito dos perigos éticos da inteligência artificial — porém, agora temos uma prova bem crítica de como um algoritmo de aprendizado de máquina pode ser maligno mesmo sem ter sido programado propositalmente para isso. O Twitter, neste momento, está quebrando a cabeça para entender o porquê de seu sistema de recorte automático de fotografias estar demonstrando tendências racistas.
- IBM e Microsoft assinam "juramento ético da inteligência artificial" no Vaticano
- Tecnologia de reconhecimento facial de gigantes tech apresenta padrões racistas
O algoritmo em questão foi projetado para otimizar a visualização de imagens no feed da rede social. Quando você publica uma foto grande demais e/ou fora das proporções aceitas pela plataforma, ela automaticamente escolhe uma porção do retrato para exibir, priorizando rostos humanos que porventura sejam identificados — é necessário clicar na imagem para visualizá-la por completo. Até aí, tudo bem.
O problema é que alguns internautas perceberam que esse sistema prioriza, na maioria das vezes, rostos de pessoas brancas em vez de indivíduos negros. A polêmica começou quando o programador Tony Arcieri fez uma série de testes em seu perfil, compartilhando montagens que juntavam os rostos do senador Mitch McConnel e do ex-presidente Barack Obama. O sistema sempre priorizava o rosto de Mitch.
Graham Christensen, integrante do time de segurança e infraestrutura do NixOS, realizou outro teste com imagens stock (tiradas de bibliotecas) para garantir que o problema não estaria ligado a outros fatores externos, como uma eventual maior popularidade do senador em tempos de discussão política pré-eleições presidenciais dos EUA. Infelizmente, a tentativa foi em vão, pois o código novamente priorizou o modelo branco em todos os cenários.
Acredite ou não, mas alguns internautas chegaram ao ponto de testar o algoritmo com personagens de desenhos animados (Lenny e Carl, da franquia Os Simpsons) e até mesmo com cachorros. Você já imagina o resultado: Lenny ficou em destaque, tal como o cão de pelagem clara versus aquele de pelagem escura.
Como resolver?
Naturalmente, essa situação não está nada legal para o Twitter. Alguns executivos da companhia começaram a fazer seus próprios testes não-científicos e não-oficiais para tentar entender o porquê desse comportamento. Dantley Davis, chefe do setor de design da rede social, por exemplo, conseguiu reverter um dos testes dos internautas ao esconder as mãos do modelo negro.e vesti-lo com o mesmo terno do modelo branco.
Liz Kelley, da equipe de comunicações da empresa, afirmou que a companhia “não encontrou evidências de preferências raciais ou de gênero em seus testes”, mas concordou que seriam necessárias análises mais aprofundadas.
“Esta é uma questão muito importante. Para evitar isso, fizemos uma análise em nosso modelo quando o lançamos, mas ele precisa de melhorias contínuas. Adoro este teste público, aberto e rigoroso — e estou ansioso por aprender com ele”, finaliza Parag Agrawal, gerente de tecnologia do Twitter.
Posicionamento oficial do Twitter
A assessoria de imprensa do Twitter no Brasil entrou em contato com o Canaltech e incluiu o seguinte posicionamento oficial, publicado também no perfil nacional da companhia no microblog:
Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, abriremos o código para que outros possam revisá-lo.
Fonte: The Verge