Publicidade

Treinamento em dados inúteis de rede social pode levar à podridão cerebral da IA

Por  • Editado por Melissa Cruz Cossetti |  • 

Compartilhe:
Freepik
Freepik

Um novo estudo publicado no último dia 15 na plataforma arXiv revelou que os modelos de linguagem artificial (como os que alimentam chatbots e assistentes virtuais) podem sofrer uma espécie de “podridão cerebral” quando são treinados com conteúdo superficial. O fenômeno, batizado de “brain rot” ou “apodrecimento cerebral”, é semelhante ao efeito observado em humanos expostos continuamente a conteúdo de baixa qualidade online.

A pesquisa, conduzida por cientistas da Universidade do Texas em Austin, Texas A&M e Purdue University, propõe a chamada LLM Brain Rot Hypothesis. Segundo os autores, quando grandes modelos de linguagem são expostos de forma contínua a textos rasos, sensacionalistas ou voltados apenas para o engajamento, suas habilidades cognitivas entram em declínio.

Os pesquisadores treinaram versões abertas de modelos como o Llama (da Meta) e o Qwen (da Alibaba) com dois tipos de dados: um conjunto de textos “limpos” e outro formado por postagens populares e superficiais de redes sociais, principalmente TikTok e X. O resultado foi que os modelos alimentados com esse “junk data” apresentaram quedas significativas em raciocínio lógico, memória de longo contexto e alinhamento ético, além de exibirem traços mais fortes em testes de personalidade simulada.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Como o estudo comprovou o declínio cognitivo

Para medir o impacto, os pesquisadores criaram dois critérios:

  • M1 (Grau de engajamento) – medindo a popularidade e brevidade dos posts, associadas a conteúdos de fácil consumo;
  • M2 (Qualidade semântica) – avaliando o uso de linguagem sensacionalista, como “VEJA” ou “APENAS HOJE”.

À medida que a proporção de dados “junk” aumentava, o desempenho dos modelos despencava. Em um dos testes, o a pontuação caiu de 74,9 para 57,2 quando o treinamento foi feito apenas com conteúdo viral.

Os pesquisadores observaram que as IAs com “brain rot” tendiam a pular etapas de raciocínio, um comportamento batizado de thought skipping. Mesmo após novas fases de treinamento com dados limpos, os danos não foram totalmente revertidos.

Implicações para o futuro da inteligência artificial

O estudo alerta que o problema pode se agravar com o aumento do conteúdo gerado por IA nas próprias redes sociais. Isso cria um ciclo de retroalimentação: IAs produzem conteúdo raso, que é consumido e depois usado para treinar novas IAs, perpetuando o declínio cognitivo.

Continua após a publicidade

Como destacou o pesquisador Junyuan Hong, “treinar modelos com textos virais pode parecer escalar dados, mas na verdade corrói silenciosamente o raciocínio, a ética e a atenção”. A conclusão é que a qualidade dos dados é tão importante quanto a quantidade. Assim como o cérebro humano precisa de informação nutritiva, a inteligência artificial também depende de um “regime cognitivo saudável” para se manter lúcida e funcional.

Leia também:

VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?

Continua após a publicidade

Fonte: ARxIV, Wired