Experimento de Harvard decifra como algoritmo do YouTube está ajudando pedófilos

Por Rafael Rodrigues da Silva | 04 de Junho de 2019 às 15h43
Tudo sobre

YouTube

Saiba tudo sobre YouTube

Ver mais

Uma reportagem publicada pelo The New York Times nesta segunda-feira (3) expôs uma realidade aterradora: o algoritmo do YouTube realmente tem ajudado pedófilos a usar a plataforma para seus fetiches doentios.

A reportagem fala sobre uma pesquisa feita por pesquisadores do Centro Berkman Klein para a Internet e a Sociedade, um centro de pesquisa ligado à Universidade de Harvard, que fez um extenso estudo sobre como funciona o algoritmo de recomendações de vídeos de YouTube para entender a influência da plataforma nos conteúdos que as pessoas consumiam nela e como o algoritmo é influenciado pelo comportamento das pessoas.

O experimento consistiu de um “bot” que foi programado para entrar no YouTube e seguir as recomendações de vídeo da plataforma milhares de vezes, e ao mesmo tempo ir gravando todo o caminho dos vídeos que ele foi acessando e criando uma espécie de “mapa” para que os pesquisadores conseguissem entender exatamente a lógica existente nessas recomendações.

O problema foi encontrado pelos pesquisadores quando o programa começou a mapear vídeos de temas sexuais. Mesmo que os pesquisadores não estivessem procurando por vídeos de pornografia (até porque não existem vídeos pornográficos no YouTube) e o programa estivesse acessando vídeos que tratam do sexo como questão de saúde, eles perceberam que o sistema recomendava vídeos cada vez mais bizarros e extremos, sempre dando ênfase a jovens. Por exemplo, assistir a vídeos de sexólogas conversando sobre verdades e mentiras sobre a prática de sexo às vezes levavam a vídeos de mulheres sem roupa íntima ou amamentando, e sempre mulheres com idades entre 16 e 18 anos.

Conforme o experimento ia se aprofundando nas recomendações, o YouTube começava então a exibir vídeos de adultos vestindo roupas infantis e solicitando que “sugar daddies” efetuassem depósitos em suas contas bancárias. E o próximo passo do sistema de recomendações foi mostrar vídeos reais de crianças parcialmente vestidas (como brincando na praia ou no quintal de casa), a maioria deles de usuários do Leste Europeu e da América Latina.

Uma dessas pessoas é uma menina de 10 anos do Rio de Janeiro (por motivos de segurança a reportagem escondeu a identidade dela) que postou um vídeo dela com uma amiga brincando em uma piscina, e em questão de dias o vídeo já tinha 400 mil visualizações.

Esse tipo de coisa acontece pela forma como funciona o algoritmo do YouTube. Assim como o do Facebook, o algoritmo presta atenção na navegação dos usuários do site para “aprender” os gostos desses usuários e fazer recomendações de vídeos que eles podem gostar baseado não apenas no seu histórico individual, mas também no que outras pessoas que possuem o mesmo gosto também procuram no site. Assim, o YouTube pode ter aprendido com pedófilos que pessoas que gostam de vídeos de temas sexuais também gostam de vídeos de adultos infantilizados e, por sua vez, de vídeos de crianças de biquinis, ajudando esses usuários a encontrar novos conteúdos infantis na plataforma que eles podem sexualizar.

Ryan ToysReview

O problema do YouTube não é novo, e há tempos esse efeito de “toca de coelho” tem sido denunciado por diversas publicações de imprensa, mas a existência dele é sempre negada pelo YouTube. O experimento dos pesquisadores de Harvard é o primeiro a provar cientificamente que esse efeito é real, e que o algoritmo do YouTube tem ajudado pedófilos a encontrar novas potenciais vítimas.

Após a publicação da reportagem do Times, o YouTube não quis responder perguntas sobre o algoritmo da plataforma, e apenas publicou uma postagem em seu blog oficial sobre as medidas que tem tomado para proteger menores e suas famílias para que eles possam continuar usando o portal para publicar seus vídeos inocentes. Recentemente, o YouTube teve que proibir comentários em diversos vídeos inocentes de crianças, pois a seção era usada por pedófilos para compartilhar conteúdos de sexualização infantil.

É preciso deixar claro que o problema aqui não está nos vídeos em si, que são todos inocentes e não tem nenhuma intenção sexual. O problema — que o YouTube não quer assumir que é um problema — é que o algoritmo da empresa aprendeu a linkar vídeos sexuais com vídeos de crianças que nada têm a ver com sexo, e esse é um tipo de ligação que não seria possível de qualquer algoritmo de computador fazer por si mesmo.

Para os pesquisadores, o jeito mais rápido de resolver esse problema seria fazer com que o algoritmo da plataforma não mais recomendasse vídeos de crianças para os usuários, mas a empresa já falou que isso é algo que ela não irá mudar por conta desse sistema ser o maior automatizador de tráfico da plataforma, e isso atrapalharia os produtores de conteúdo do site.Vale lembrar que, em 2018, o canal que mais lucrou com o YouTube foi o Ryan ToysReview, de um menino de apenas 8 anos que faz vídeos sobre brinquedos.

Fonte: New York Times

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.