Obstáculo inusitado: IA de jogo online vira limbo de pedofilia

Obstáculo inusitado: IA de jogo online vira limbo de pedofilia

Por Nathan Vieira | Editado por Luciana Zaramela | 06 de Maio de 2021 às 08h30
bialasiewicz/envato

O que começou como um experimento envolvendo a inteligência artificial para conduzir aventuras de RPG no maior estilo Dungeons & Dragons acabou tomando um rumo sombrio: a pedofilia. No cerne da questão está o jogo AI Dungeon, que funciona da seguinte maneira: os jogadores são inseridos em uma aventura em forma de texto. No game, a narrativa se desdobrava com base no que os jogadores escolhiam fazer. No entanto, a Latitude, startup por trás do jogo, soube no mês passado que alguns jogadores começaram a usar essa narrativa para encenar abuso sexual de menores.

Com esse destino inesperado para o seu jogo, a Latitude precisou correr para anunciar atualizações em suas práticas de moderação de conteúdo, proibindo que a inteligência artificial aceitasse ou usasse alguns termos específicos. E para se ter uma ideia, alguns jogadores não gostaram nem um pouco, e reclamaram desse novo posicionamento da empresa, alegando violação de privacidade.

Outros usuários reclamam que o sistema é muito rígido, mas a própria Latitude mencionou em seu anúncio que ainda apoiaria conteúdo violento e adulto, desde que pudesse verificar que as narrativas fictícias do jogo envolviam adultos e consentimento.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

(Imagem: geralt/pixabay)

"Lançamos um sistema para evitar a geração de determinado conteúdo sexual que viole nossas políticas, especificamente conteúdo que possa envolver representações ou descrições de menores", anunciou a própria empresa. "Embora esse teste tenha impedido que a IA gerasse conteúdo sexual envolvendo menores, devido a limitações técnicas, às vezes ele impede a geração de conteúdo que não está relacionado [com pedofilia]. Sabemos que nosso teste inicial não foi perfeito e também entendemos que isso pode ser frustrante", continua o comunicado.

A empresa finaliza seu anúncio com as medidas que tem tomado para resolver os problemas apontados pelos usuários: melhorias contínuas da IA, espaço para relatos de ocasiões em que a IA barrou uma situação que não envolvia pedofilia e avisos com antecedência de quando as mudanças de plataforma estiverem sendo implementadas.

Fonte: Wired

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.