Obstáculo inusitado: IA de jogo online vira limbo de pedofilia
Por Nathan Vieira | Editado por Luciana Zaramela | 06 de Maio de 2021 às 08h30
O que começou como um experimento envolvendo a inteligência artificial para conduzir aventuras de RPG no maior estilo Dungeons & Dragons acabou tomando um rumo sombrio: a pedofilia. No cerne da questão está o jogo AI Dungeon, que funciona da seguinte maneira: os jogadores são inseridos em uma aventura em forma de texto. No game, a narrativa se desdobrava com base no que os jogadores escolhiam fazer. No entanto, a Latitude, startup por trás do jogo, soube no mês passado que alguns jogadores começaram a usar essa narrativa para encenar abuso sexual de menores.
- Netflix é acusada de pedofilia por filme que sexualiza crianças
- Microsoft ainda permite pornografia infantil no Bing, mesmo ciente
- No submundo do YouTube, vídeos brasileiros trazem insinuações de pedofilia
Com esse destino inesperado para o seu jogo, a Latitude precisou correr para anunciar atualizações em suas práticas de moderação de conteúdo, proibindo que a inteligência artificial aceitasse ou usasse alguns termos específicos. E para se ter uma ideia, alguns jogadores não gostaram nem um pouco, e reclamaram desse novo posicionamento da empresa, alegando violação de privacidade.
Outros usuários reclamam que o sistema é muito rígido, mas a própria Latitude mencionou em seu anúncio que ainda apoiaria conteúdo violento e adulto, desde que pudesse verificar que as narrativas fictícias do jogo envolviam adultos e consentimento.
"Lançamos um sistema para evitar a geração de determinado conteúdo sexual que viole nossas políticas, especificamente conteúdo que possa envolver representações ou descrições de menores", anunciou a própria empresa. "Embora esse teste tenha impedido que a IA gerasse conteúdo sexual envolvendo menores, devido a limitações técnicas, às vezes ele impede a geração de conteúdo que não está relacionado [com pedofilia]. Sabemos que nosso teste inicial não foi perfeito e também entendemos que isso pode ser frustrante", continua o comunicado.
A empresa finaliza seu anúncio com as medidas que tem tomado para resolver os problemas apontados pelos usuários: melhorias contínuas da IA, espaço para relatos de ocasiões em que a IA barrou uma situação que não envolvia pedofilia e avisos com antecedência de quando as mudanças de plataforma estiverem sendo implementadas.
Fonte: Wired