Facebook aposta em IA para que seus moderadores não surtem com conteúdo ofensivo

Por Redação | 31.05.2016 às 23:30

Disposto a enfrentar as publicações de conteúdos ofensivos, o Facebook tem investido em inteligência artificial para que seus moderadores não tenham que lidar com o sofrimento de vasculhar materiais que podem ser bastante traumáticos. Em um marco importante para a rede social, a IA poderia substituir o trabalho desses profissionais, que frequentemente acabam por desenvolver transtornos psicológicos.

Ao fazer upload de conteúdos ofensivos, atualmente pelo menos um moderador deve avaliar a postagem. O problema é que em diversos casos as publicações envolvem discursos de ódio, ameaças, pornografia e violência, o que dificilmente passa pelos moderadores de forma imparcial e sem consequências para a sua vida.

Colocando a inteligência artificial à frente da moderação, os profissionais podem ser poupados de ver todo tipo de depravação, como assassinatos, estupros, pedofilia, racismo e homofobia. E é essa a aposta da rede social, já que muitos trabalhadores nestes postos rapidamente acabam por desenvolver Burnout (um transtorno de esgotamento profissional) e apresentar sintomas de estresse pós-traumático.

Os recursos em desenvolvimento pelo Facebook têm como objetivo fazer com que a própria plataforma analise os conteúdos, fazendo com que os trabalhadores não cheguem a ver as imagens e com que o conteúdo não chegue a ser publicado pelo usuário que viola as condições de uso da rede social. E os investimentos parecem estar dando certo. De acordo com Joaquin Candela, diretor de engenharia em aprendizado de máquina aplicado ao Facebook, atualmente há mais denúncias sobre conteúdos ofensivos feitos por inteligência artificial do que por pessoas.

A tendência é que todo o ambiente da internet possa contar com recursos de proteção. O Twitter, por exemplo, que tem sido amplamente criticado por não conseguir evitar conteúdos impróprios de forma adequada (e o vídeo do estupro da menina que viralizou na última semana é prova disso), tem feito grandes esforços para melhorar a sua moderação. Para ajudar da luta, a rede social comprou uma startup de inteligência visual para identificar imagens ofensivas.

Fonte: TechCrunch