Publicidade

Estudo revela aumento de conteúdo ilegal infantil no Mastodon

Por  • Editado por Douglas Ciriaco | 

Compartilhe:
Battenhall/Unsplash
Battenhall/Unsplash

Um estudo realizado pelo Observatório da Internet da Universidade de Stanford, nos Estados Unidos, revela que plataformas sociais em servidores federados, como é o caso do Mastodon, carecem de mecanismos de segurança e moderação para impedir a circulação de materiais com conteúdo sexual infantil.

O trabalho quantifica o aumento no número de materiais dessa natureza no Mastodon e investiga como as redes sociais federadas podem coibir que esses conteúdos ilegais sejam compartilhados livremente.

Aumento de casos no Mastodon

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Para realizar o estudo, os pesquisadores de Stanford coletaram dados das 25 principais instâncias (servidores) do Mastodon durante dois dias e utilizaram APIs de dois programas para detectar imagens explícitas: o SafeSearch do Google e o PhotoDNA.

Os materiais coletados através das APIs foram então analisados e quantificados. De cerca de 325 mil publicações monitoradas nesses dois dias, foram identificados 112 casos de materiais explícitos envolvendo menores de idade.

Além disso, outros 554 posts foram reconhecidos pelo Google SafeSearch como conteúdo sexualmente explícito compartilhado com hashtags e palavras-chave comumente usadas em comunidades de exploração infantil.

A análise também encontrou 713 usos das 20 principais hashtags relacionadas a conteúdos de exploração sexual de menores com mídias, e outros 1.217 posts sem mídia — com textos relacionados principalmente ao comércio off-site ou aliciamento de menores.

O problema das redes sociais federadas

Segundo o estudo de Stanford, o modelo de servidores federados está na raiz do problema do Mastodon com a circulação de conteúdos ilegais.

Diferente das plataformas tradicionais centralizadas como o Twitter, a rede social federada tem uma abordagem descentralizada em que vários servidores interconectados — chamados de instâncias — pertencem e são operados independentemente por diferentes organizações ou indivíduos.

Continua após a publicidade

Além disso, cada instância em uma rede federada pode ter seu próprio conjunto de regras, com os administradores moderando o conteúdo e aplicando políticas de acordo com as suas próprias diretrizes.

Embora esse modelo seja visto como uma forma de dar autonomia e liberdade aos usuários finais, ele também dificulta a moderação dos conteúdos compartilhados — materiais ilegais e prejudiciais podem ficar dias no ar até um administrador remover os conteúdos de sua instância.

As soluções sugeridas pelo estudo de Stanford se baseiam em mecanismos de moderação, seja com a formação de equipes, a implementação de ferramentas ou a integração de metodologia de alertas — incluindo a utilização dos programas mencionados na coleta de dados.

Continua após a publicidade

Para saber mais sobre a rede federada, veja o que é o Mastodon.

Fonte: Child Safety on Federated Social Media — Stanford Internet Observatory