Treinamento em dados inúteis de rede social pode levar à podridão cerebral da IA
Por Nathan Vieira • Editado por Melissa Cruz Cossetti | •

Um novo estudo publicado no último dia 15 na plataforma arXiv revelou que os modelos de linguagem artificial (como os que alimentam chatbots e assistentes virtuais) podem sofrer uma espécie de “podridão cerebral” quando são treinados com conteúdo superficial. O fenômeno, batizado de “brain rot” ou “apodrecimento cerebral”, é semelhante ao efeito observado em humanos expostos continuamente a conteúdo de baixa qualidade online.
- Acelerar vídeo prejudica memória e há limites; veja a faixa etária mais afetada
- O que tem no feed do AI Vibes da Meta? Por lá, só se posta vídeo gerado pela IA
A pesquisa, conduzida por cientistas da Universidade do Texas em Austin, Texas A&M e Purdue University, propõe a chamada LLM Brain Rot Hypothesis. Segundo os autores, quando grandes modelos de linguagem são expostos de forma contínua a textos rasos, sensacionalistas ou voltados apenas para o engajamento, suas habilidades cognitivas entram em declínio.
Os pesquisadores treinaram versões abertas de modelos como o Llama (da Meta) e o Qwen (da Alibaba) com dois tipos de dados: um conjunto de textos “limpos” e outro formado por postagens populares e superficiais de redes sociais, principalmente TikTok e X. O resultado foi que os modelos alimentados com esse “junk data” apresentaram quedas significativas em raciocínio lógico, memória de longo contexto e alinhamento ético, além de exibirem traços mais fortes em testes de personalidade simulada.
Como o estudo comprovou o declínio cognitivo
Para medir o impacto, os pesquisadores criaram dois critérios:
- M1 (Grau de engajamento) – medindo a popularidade e brevidade dos posts, associadas a conteúdos de fácil consumo;
- M2 (Qualidade semântica) – avaliando o uso de linguagem sensacionalista, como “VEJA” ou “APENAS HOJE”.
À medida que a proporção de dados “junk” aumentava, o desempenho dos modelos despencava. Em um dos testes, o a pontuação caiu de 74,9 para 57,2 quando o treinamento foi feito apenas com conteúdo viral.
Os pesquisadores observaram que as IAs com “brain rot” tendiam a pular etapas de raciocínio, um comportamento batizado de thought skipping. Mesmo após novas fases de treinamento com dados limpos, os danos não foram totalmente revertidos.
Implicações para o futuro da inteligência artificial
O estudo alerta que o problema pode se agravar com o aumento do conteúdo gerado por IA nas próprias redes sociais. Isso cria um ciclo de retroalimentação: IAs produzem conteúdo raso, que é consumido e depois usado para treinar novas IAs, perpetuando o declínio cognitivo.
Como destacou o pesquisador Junyuan Hong, “treinar modelos com textos virais pode parecer escalar dados, mas na verdade corrói silenciosamente o raciocínio, a ética e a atenção”. A conclusão é que a qualidade dos dados é tão importante quanto a quantidade. Assim como o cérebro humano precisa de informação nutritiva, a inteligência artificial também depende de um “regime cognitivo saudável” para se manter lúcida e funcional.
Leia também:
- O que é slop? Lixo eletrônico gerado por IA se alastra pela internet
- Como a IA afeta o nosso cérebro? Neurocientista explica
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?