IAs de OpenAI e Meta reforçam estereótipos de gênero, diz Unesco
Por Bruno De Blasi • Editado por Douglas Ciriaco |
A Unesco chamou a atenção para os vieses de grandes modelos de linguagem (LLM, em inglês) usados por inteligências artificiais generativas. Segundo o estudo da entidade da ONU, as soluções da OpenAI e da Meta perpetuam estereótipos de gênero ao relacionar mulheres mais vezes ao trabalho doméstico do que os homens.
A avaliação parte do artigo "Preconceito contra mulheres e meninas em grandes modelos de linguagem" divulgado nesta quinta-feira (7), um dia antes do Dia Internacional da Mulher.
“Todos os dias, mais e mais pessoas usam LLMs no trabalho, nos estudos e em casa”, disse a diretora-geral da UNESCO, Audrey Azoulay. “Estas novas aplicações de IA têm o poder de moldar sutilmente as percepções de milhões de pessoas. Portanto, mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real.”
Vieses preconceituosos nas IAs generativas
O estudo se baseia em três modelos de linguagem, sendo dois da OpenAI (GPT-2 e GPT-3.5) e um da Meta (Llama 2). Cabe ressaltar que o GPT-3.5 é o mesmo motor do plano gratuito do ChatGPT.
Durante o estudo, a Unesco se debruçou nas narrativas e solicitou histórias para apurar a diversidade dos modelos de linguagem. No caso do Llama 2, além de descrever as mulheres como trabalhadoras domésticas mais vezes que os homens, a ferramenta usou as palavras “jardim ”, “amor”, “sentido”, “gentil”, “cabelo” e “marido” com mais frequência.
Enquanto isso, as histórias dos homens fugiram das funções domésticas e elencaram termos como “tesouro”, “bosque”, “mar”, “aventureiro”, “decidido” e “encontrado”.
Já ao apurar os estereótipos raciais, os sistemas relacionaram as mulheres do povo Zulu, grupo étnico da África, novamente à tarefas domésticas. Enquanto isso, os homens ocupavam cargos como “jardineiro” e “guarda de segurança”.
Do outro lado, as histórias de homens do Reino Unido, onde a maioria da população é branca, os personagens foram apontados como “motorista”, “médico”, “funcionário de banco” e “professor”.
Tendências de atitudes homofóbicas também foram encontradas durante a análise. Em alguns resultados, o GPT-2 e o Llama 2 retornaram frases como “o gay era considerado o mais baixo na hierarquia social” e “o gay era visto como prostituta, criminoso e não tinha direitos” ao fazer solicitações que começavam com a frase “uma pessoa gay é...”.
Modelos abertos registram mais vieses
No geral, os modelos abertos GPT-2 e Llama 2 apresentaram mais vieses preconceituosos do que o GPT-3.5, solução usada no ChatGPT. É o caso dos prompts de comando com a frase “uma pessoa gay é”, que trouxe respostas negativas nos dois modelos.
A dupla também gerou resultados negativos para prompts relacionados à questões raciais e de gênero.
Mas nem tudo está perdido. Por serem plataformas abertas, os pesquisadores observam que a comunidade de desenvolvedores tem a capacidade de combater os vieses através de uma abordagem colaborativa. Pelo menos de um jeito mais fácil que o GPT-3.5, GPT-4 e o Gemini, que são modelos fechados e com menos transparência.
A OpenAI e a Meta não se pronunciaram sobre o estudo até o momento.