O YouTube não é um lugar seguro para crianças, e não está preocupado com isso

Por Rafael Rodrigues da Silva | 25 de Fevereiro de 2019 às 09h13
Tudo sobre

YouTube

Saiba tudo sobre YouTube

Ver mais

Na última sexta-feira (22), o YouTube desativou os comentários de dezenas de milhões de vídeos em resposta à denúncia feita pelo youtuber Matt Watson, que revelou a existência de um “circuito de pedofilia” na plataforma de vídeos em que usuários utilizavam contas falsas para fazer comentários maliciosos em vídeos supostamente inocentes de crianças, apontando os momentos do vídeo em que elas apareciam em uma posição que poderia ser sexualizada — além de compartilharem links para outros locais de conteúdo pedófilo.

Apesar desse “circuito” já estar ocorrendo há algum tempo na plataforma, o YouTube só começou a tomar medidas reais para coibi-lo na semana passada, quando a revelação feita por Watson viralizou e diversas grandes marcas — como Nestlé e Disney — anunciaram que parariam imediatamente de anunciar na plataforma por suas marcas estarem sendo indiretamente ligadas à prática da pedofilia.

O caso do “circuito”

A atual polêmica foi revelada em um vídeo publicado há uma semana por Matt Watson. Na publicação, ele não apenas revela a existência de um “circuito de pedofilia” que atua nos comentários do YouTube, mas ainda como o próprio algoritmo da plataforma de vídeos facilita que esses conteúdos sejam encontrados por qualquer pessoa em apenas cinco ou seis cliques ao pesquisar por temas comuns, como “ginástica” ou “vídeos de biquíni”.

Apesar do vídeo ter sido postado na última segunda-feira (18), foi apenas na quarta (20) que o conteúdo viralizou, fazendo com que imediatamente diversas empresas — como a Epic Games, criadora do jogo Fortnite e uma das primeiras a se pronunciar sobre o assunto — retirassem seus investimentos em publicidade veiculadas no YouTube.

Desde que a onda de corte de anúncios começou, em apenas 48h o YouTube já removeu milhares de comentários que sexualizavam crianças, centenas de contas falsas que faziam esses comentários e dezenas de vídeos que, ainda que sem malícia, colocavam crianças em situações de possível sexualização — além de enviar todas as informações que possuía sobre essas contas de comentários pedófilos para as autoridades policiais competentes.

Infelizmente, essa não é a primeira vez que algo do tipo acontece com a plataforma e mostra o histórico preocupante de uma empresa que se preocupa menos em impedir que esse tipo de coisa aconteça e mais em mostrar serviço quando elas finalmente vêm a público.

Elsagate

Já há pelo menos quatro anos o YouTube tem sido um lugar problemático para as crianças, mas tudo começou a sair do controle quando, em 2016, um canal chamado Webs and Tiaras viralizou com vídeos em que adultos vestidos de personagens infantis famosos, como super-heróis e princesas da Disney, faziam performances bizarras e que não deveriam ser vistas por crianças, como cortar a língua, engolir uma cobra ou arrancar as tripas de um outro personagem.

Esse conteúdo normalmente era identificado por uma thumbnail em que os personagens apareciam sobre um fundo colorido em poses sem sentido e, mesmo que definitivamente o conteúdo dos vídeos não fosse algo seguro para crianças, eles faziam um enorme sucesso entre os pequenos. Em apenas dois meses, o canal se tornou um dos maiores sucessos do YouTube, acumulando 1,7 bilhões de visualizações e alguns milhões de inscritos. O sucesso fez com que surgissem diversos canais que imitavam esse tipo de vídeo, com alguns produzindo conteúdos ainda mais extremos, com o consumo de drogas e insinuações de fetiches sexuais.

Essa proliferação de canais que utilizavam ícones infantis para promover conteúdos adultos acabou ficando conhecida pelo nome de Elsagate (alusão à princesa Elsa da animação Frozen, lançada pela Disney em 2013). Ainda que esses vídeos, de modo mais ou menos pesado, existissem no YouTube desde 2014, foi apenas em 2017 — em meio a um outro escândalo que ficou conhecido como Adpocalypse (ainda entraremos em maiores detalhes sobre ele) — que a empresa mudou suas regras de uso para impedir que esses tipos de vídeos fossem monetizados. Isso significa que, pelo menos durante três anos, esses conteúdos não só faziam sucesso abusando da imagem de ícones infantis como ainda eram extremamente lucrativos, pois eram considerados como conteúdos “para toda a família” pela plataforma de vídeos e seus criadores ganhavam pelos anúncios que eram divulgados neles.

YouTube “Kids”

Em fevereiro de 2015, o YouTube anunciou a criação do YouTube Kids, um novo app desenvolvido com algoritmos que garantiriam que todo o conteúdo mostrado fosse seguro para crianças. Durante o anúncio, a empresa revelou que o app foi desenvolvido pensando nos pais que, por motivos de trabalho ou pessoais, não conseguem estar sempre monitorando o que os seus filhos acessam na internet, então o YouTube Kids seria um modo de deixá-los despreocupados sobre quais conteúdos seus filhos teriam acesso mesmo sem supervisão.

Mas, ao contrário do que divulgava o marketing do produto, o app não era assim tão seguro para crianças. Menos de dois meses depois de colocar o aplicativo no ar, uma coalisão de grupos de proteção à criança e de direitos do consumidor entrou com uma ação na Federal Trade Comission (FCC) sobre os conteúdos que o YouTube Kids permitia as crianças terem acesso. Isso ocorreu porque o algoritmo não considerava como perigosos conteúdos de canais anteriores ao Webs and Tiaras, mas que criavam o mesmo tipo de conteúdo, o que permitia que crianças tivessem acesso não-moderado a vídeos grotescos com adultos vestidos de princesas e super-heróis.

Além disso, a coalisão alegava ter encontrado outros conteúdos até mais complicados do que os do canal, como vídeos de animação onde personagens da Disney praticavam atos sexuais explícitos, insinuações sobre pedofilia e uso de drogas e “desafios” que pediam para a criança fazer atos perigosos, como brincar com fósforos acesos.

Ainda que à época o YouTube tenha dito que havia desenvolvido o app com a ajuda de advogados ligados à proteção de crianças e que estava sempre disposto a receber sugestões de melhorias, pouco foi feito para coibir esse tipo de conteúdo danoso baseado em ícones infantis.

E, mesmo três anos depois, o app ainda continuava problemático. Uma investigação feita pela BBC em fevereiro de 2018 descobriu que esses tipos de conteúdos ainda são extremamente populares no YouTube Kids. Entre os vídeos que era possível acessar pelo app, podia-se encontrar um em que o Mickey Mouse usava uma arma para matar crianças, um em que personagens da Patrulha Canina gritavam palavrões enquanto caíam de um avião em chamas, e até mesmo vídeos tutoriais que ensinavam afiar uma faca e manusear uma arma de fogo.

Os algoritmos do YouTube realmente não parecem saber muito bem fazer seu trabalho de proteger o público infantil, e pudemos conferir isso em primeira mão: depois de passar algumas horas durante uma tarde pesquisando relacionamentos entre o YouTube e pedofilia para a criação desta matéria, ao acessar o app da plataforma no celular a primeira coisa que ela me indica é se eu não gostaria de testar o YouTube Kids. Quando um algoritmo pega sua busca pelo termo “pedofilia” e acha que está te ajudando ao oferecer a entrada em um local que, teoricamente, deveria ser seguro para crianças, é porque há algo muito errado na raiz disso.

Adpocalypse

Apesar de todos esses problemas já terem sido indicados desde 2015, poucas mudanças foram feitas na plataforma de vídeos até 2017 — ano em que, pela primeira vez, as críticas ao modelo de negócios do YouTube tomaram uma proporção tão grande que acabou afetando a empresa financeiramente.

Foi naquele ano que ocorreu o fenômeno que ficou conhecido como Adpocalypse entre os criadores de conteúdo da plataforma, quando a “liberdade” dada pelo YouTube a seus criadores acabou estourando de forma negativa na imprensa.

Não se sabe exatamente o que foi o ponto de partida do fenômeno, mas as causas são atribuídas a três vídeos que geraram uma enorme quantidade de críticas e comoção negativa na imprensa e público em geral:

  • um video do YouTuber PewDiePie em que ele faz uma “piada” saudando o Partido Nazista;
  • um montagem feita a partir de um clipe do rapper Chief Keef em que ele e outros negros dançam ao som de Alabama N*gger, uma canção extremamente racista de Johnny Rebel, que manda a Associação Nacional para o Progresso da Pessoas de Cor se f*der e fala que os negros querem entrar nos lugares de brancos porque a planta do pé deles é branca;
  • um comercial da Pepsi em que a modelo Kendall Jenner aparece acabando com um conflito entre policiais e ativistas ao oferecer uma Pepsi para a polícia, que foi duramente criticado por minimizar a questão da brutalidade policial que atinge principalmente as pessoas negras.

A atenção que esses vídeos criaram na mídia fez com que a imprensa passasse a mostrar então outros vídeos ainda mais problemáticos existentes no YouTube, em que vloggers falavam abertamente sobre a aplicação de políticas de extermínio étnico e a perseguição e morte de minorias negras, homossexuais e latinas, entre outras. As reportagens não apenas revelaram que esses conteúdos existiam, mas também que eles eram monetizados — o que fazia com que marcas como a Coca-Cola, por exemplo, pudessem ser ligadas diretamente a um vídeo que advogava o extermínio da população negra sem nem mesmo ficar sabendo disso.

Essa comoção toda com o assunto acabou gerando o evento conhecido como Adpocalypse, quando diversas empresas deixaram de investir no YouTube, o que fez com que os criadores de conteúdo da plataforma vissem suas receitas mensais com anúncios despencarem.

Para tentar retomar a confiança, o YouTube mudou sua política de monetização e pela primeira vez passou a permitir não apenas que as empresas escolhessem em quais tipos de vídeos gostariam de divulgar suas propagandas, mas também que apenas os usuários que produzissem conteúdo não abusivo teriam permissão de monetizar os seus canais.

Então, ainda que a empresa tenha sido alertada há pelo menos dois anos antes sobre a existência de canais que enganavam os algoritmos e transmitiam conteúdos abusivos para crianças a fim de lucrar com a exibição de anúncios, foi apenas em 2017, quando a “bomba” estourou, que ela tomou a primeira providência para dificultar a existência desses canais ao impedi-los de serem monetizados.

O estado atual do YouTube

Em todos os casos aqui citados, o posicionamento do YouTube foi sempre o mesmo: garantir que esses conteúdos vão contra suas diretrizes de uso, afirmar que possui um enorme time de moderadores que está sempre procurando manter a plataforma segura para todos os públicos e não fazendo nada realmente efetivo até o momento em que os anunciantes começam a abandonar o barco.

Ao longo de sua história, essa tem sido a abordagem em todos os assuntos envolvendo polêmicas que têm o conteúdo dos vídeos postado no YouTube. Quando o problema envolve apenas a empresa — como um caso de 2017, em que usuários enganaram os algoritmos do Youtube para que, ao digitar “how to have” (como fazer, em português) na barra de busca, as duas primeiras opções de autocompletar fossem “how to have s*x with your kids” (como fazer sexo com seus filhos) e “how to have s*x kids” (como fazer sexo com crianças) — o problema é rapidamente solucionado. Mas, quando ele envolve os conteúdos dentro dos vídeos, a empresa costuma “levar com a barriga” até se sentir compelida a intervir pelo “clamor público” — que é melhor demonstrado na saída de anunciantes.

Ainda que existam diversos desafios para se fazer um conteúdo realmente moderado em uma plataforma onde são feitos o upload de cerca de 300h de vídeos a cada minuto, o posicionamento do YouTube historicamente se mostra extremamente passivo até mesmo quando os problemas são denunciados e a empresa não pode alegar desconhecimento. E mesmo que ultimamente a empresa tenha se empenhado em deletar canais e remover usuários nocivos, a descoberta de um "circuito de pedofilia" na plataforma mostra que ainda há muito a melhorar neste quesito.

Além disso, o problema atual do “circuito” ainda mostra falhas sérias no sistema de denúncias da plataforma. Ainda que existam ferramentas de denúncia fáceis de acessar tanto para vídeos quanto para comentários, essas denúncias normalmente só são levadas a sério pelos moderadores quando o mesmo conteúdo é denunciado uma centena de vezes. Como esses “circuitos” eram acessados majoritariamente por pedófilos e em apenas alguns casos eram encontrados por usuários comuns, as denúncias sobre os comentários que haviam ali eram raras e esparsas, o que acabava soterrando na enorme fila de denúncias que os moderadores precisam lidar diariamente.

Mas mesmo que reconheçamos as dificuldades, precisamos ser duros com o YouTube. Afinal, não foram dois ou três comentários em um vídeo com poucas visualizações, mas milhares de comentários espalhados em uma centena de vídeos, e o fato que nenhum moderador ou algoritmo conseguiu identificar a criação dessa “rede” de pedofilia dentro do site mostra que existem sérios problemas nos mecanismos de segurança da plataforma e que precisam ser resolvidos de maneira decisiva e urgente — e não apenas quando a próxima grande empresa confirmar que irá parar de anunciar no site.

Por mais que o YouTube, desde sua criação, tenha se esforçado para criar uma separação entre a “empresa YouTube” e os usuários que criam conteúdo e postam na plataforma, a empresa ainda tem um grande grau de responsabilidade por tudo o que é publicado ali. E, como a principal plataforma de vídeos do mundo, pertencente ao maior conglomerado de internet do mundo, não faltam recursos financeiros e nem técnicos para garantir uma maior proteção a todos aqueles que acessam o site, independentemente da idade.

Fonte: AMB Crypto, Polygon, New York Magazine, Wikipedia, Wikitubia

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.