Ex-moderadora do Facebook diz ter ficado “entorpecida” por conteúdos ofensivos

Por Redação | 09 de Julho de 2018 às 16h20
Tudo sobre

Facebook

Ao se tornar um moderador de conteúdo do Facebook, o novo empregado é convidado a assinar um termo de responsabilidade. Não é por acaso: esses “filtros humanos” da rede social são bombardeados diariamente com um fluxo praticamente ininterrupto de conteúdos ofensivos – incluindo postagens escancaradamente ilegais, conforme disse Sarah Katz, uma ex-empregada de Menlo Park, em entrevista ao site Business Insider.

E isso envolve de um tudo, desde conteúdos adultos a violência explícita e pornografia infantil. “O Facebook tem bilhões de usuários, e há muitas pessoas que não sabem usar corretamente a plataforma”, disse Katz ao referido site. “Há muito conteúdo que você não esperaria ver compartilhado no Facebook.”

Ainda que nem todos os conteúdos tragam imagens de atos escancaradamente ilegais, os números certamente dão o que pensar. Conforme dados da própria rede social, seus 4,5 mil moderadores atualmente em serviço em Menlo Park (Califórnia, EUA) encontram, em média, uma postagem em desacordo com os termos de uso do Facebook a cada 10 segundos. Por dia, isso gera um amontoado de mais de oito mil materiais filtrados.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Em relatório de transparência emitido em maio, o Facebook revelou suas contas apenas para o primeiro trimestre do ano: foram 21 milhões de postagens contendo “nudez e atividade sexual” e 3,4 milhões trazendo violência explícita. Isso além de outros milhões de discursos de ódio, spams e incentivos ao terrorismo, que também foram removidos.

“Avise-nos imediatamente se não quiser continuar”

Além dos 4,5 mil moderadores atualmente empenhados em purificar a rede social, outros três mil devem ser contratados em breve para reforçar o efetivo de Menlo Park. Mas trabalhar constantemente com conteúdos que escandalizariam boa parte das pessoas pode ser algo pesado – e o Facebook tem consciência disso.

Termo de responsabilidade do Facebook adverte sobre conteúdos potencialmente ofensivos (Imagem: reprodução/Business Insider)

A rede social oferece aos moderadores acompanhamento psicológico, além de incluir no contrato: “Avise-nos imediatamente se não quiser continuar” – para o caso de a exposição constante a todo o “chorume” se tornar intolerável. Segundo Katz, entretanto, é fácil acabar se entorpecendo depois de algum tempo. “Isso se torna um trabalho monótono depois de um tempo”, disse Katz ao Business Insider.

Ela continua: “Você realmente acaba se dessensibilizando em relação a alguns dos materiais gráficos porque há muito disso – e muito conteúdo tende a se repetir várias vezes”. Como exemplo, Katz menciona uma imagem em que duas crianças com idades entre nove e 12 anos apareciam nuas da cintura para baixo e se tocando. “Ficava claro que havia alguém por trás da câmera dizendo a elas o que fazer.” No entanto, ela confessa que rastrear postagens assim nem sempre é fácil, já que as fontes variam em cada nova aparição.

Tecnologia PhotoDNA

Além do labor de milhares de seres humanos, o Facebook também tem lançado mão de outros recursos no combate à proliferação de conteúdos ilícitos. Um contrato efetuado com a Microsoft em 2011, por exemplo, permite a utilização em tempo integral da tecnologia PhotoDNA. Trata-se de uma ferramenta que varre todas as imagens da rede social (também do Instagram), derrubando automaticamente qualquer publicação com indícios de conteúdo criminoso – impedindo que seja publicado novamente.

Tecnologia da Microsoft permite detectar automaticamente conteúdos ilíticos no Facebook e no Instagram (Imagem: reprodução/Microsoft)

“Nós temos tolerância zero em relação a pornografia infantil, e somos extremamente agressivos para remover e prevenir conteúdos que revelem exploração de crianças”, disse um representante do Facebook ao New York Post, por ocasião da nova parceria, garantindo ainda que quaisquer conteúdos assim são prontamente encaminhados a órgãos de proteção à criança e ao adolescente.

Katz, entretanto, rebate dizendo que havia muita “vista grossa” em relação a publicações do gênero, que muitas vezes apenas eram excluídas, sem mais alarde. “Talvez o Facebook tenha mudado a sua política hoje em relação ao que deve ser reportado, mas na época isso não ocorria”, diz a ex-moderadora. Até o momento, o Facebook não se manifestou sobre o assunto.

Fonte: Business Insider

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.