O que é o colapso dos modelos de IA, sobre o qual alertam pesquisadores
Por Guilherme Haas |
Pesquisadores da área de inteligência artificial têm levantado preocupações sobre um fenômeno chamado “colapso dos modelos de IA”, que pode comprometer a eficácia das futuras gerações dessas tecnologias. O termo se refere a um processo degenerativo que ocorre quando modelos de IA são treinados utilizando dados gerados por outros modelos de IA, em vez de dados originados por humanos.
Esse fenômeno é motivo de preocupação crescente na comunidade científica, especialmente à medida que cresce a quantidade de conteúdos gerados por IA na internet e a utilização desses materiais para “retroalimentar” o treinamento dos modelos.
Colapso dos modelos de IA
Em um artigo publicado na revista Nature no último mês de julho, os pesquisadores Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson e Yarin Gal mostram como os modelos de IA apresentam resultados piores quando são treinados em dados gerados artificialmente.
A principal preocupação dos pesquisadores é que o aumento do conteúdo gerado por IA na internet crie um ciclo de retroalimentação, onde novos modelos de IA são treinados em dados gerados por modelos anteriores.
De acordo com os autores, “o desenvolvimento de modelos de linguagem de larga escala (LLMs) requer grandes quantidades de dados de treinamento. No entanto, embora os LLMs atuais tenham sido treinados em texto predominantemente gerado por humanos, isso pode mudar. Se os dados de treinamento da maioria dos modelos futuros também forem extraídos da web, eles inevitavelmente treinarão em dados produzidos por seus predecessores”.
O estudo mostra como essa prática pode resultar em uma perda progressiva de precisão e diversidade nos resultados dos modelos, em um processo que os cientistas chamam de “colapso dos modelos”.
Esse processo, conforme detalhado pelos autores, ocorre devido a três tipos de erros que se acumulam ao longo de gerações de modelos: erro de aproximação estatística, erro de expressividade funcional e erro de aproximação funcional.
Cada um desses erros contribui para a degradação gradual da qualidade dos modelos, que passam a reproduzir de forma imprecisa as informações originais, culminando no que os pesquisadores descrevem como uma "perda de informação" em estágios iniciais e uma "convergência que pouco se assemelha à original" em estágios mais avançados.
Regurgitação de dados no treinamento de IAs
A prática de treinar modelos de IA com dados gerados por outros modelos também é discutida em outro artigo científico: "Regurgitative Training” (ou "Treinamento Regurgitativo", em tradução direta), de Jinghui Zhang, Dandan Qiao, Mochen Yang e Qiang Wei, também publicado em julho.
Nesse estudo, os autores exploram os efeitos do que chamam de “regurgitação de dados no treinamento de IAs” e concluem que esse processo resulta em uma perda de desempenho dos modelos.
Segundo os pesquisadores, “o sucesso explosivo de LLMs, como ChatGPT e Llama, significa que uma quantidade substancial de conteúdo online será gerada por LLMs em vez de humanos, o que inevitavelmente entrará nos conjuntos de dados de treinamento de LLMs de próxima geração”.
O “treinamento regurgitado” é visto pelos autores como algo inevitável, devido à proliferação de conteúdo gerado por IA. “Há evidências que sugerem que uma grande parte da web já é gerada por modelos de tradução automática”, destaca a equipe no artigo.
Porém, os pesquisadores concluem em suas análises que “treinar um novo LLM usando dados gerados (menos que parcialmente) por ele mesmo ou por outros LLMs geralmente resulta em desempenho inferior em relação ao treinamento com dados reais”.
Leia também:
- Como a inteligência artificial pode conversar como humanos?
- O que é singularidade tecnológica e o que isso tem a ver com IA
- Há 70% de chance de a IA gerar um colapso na humanidade, diz ex-OpenAI
Fim dos dados gerados por humanos
Os dois artigos publicados em julho também se relacionam com outro ponto crítico sobre o treinamento de modelos de IA: a perspectiva de que os dados disponíveis gerados por humanos podem acabar em breve.
Com a popularização das soluções de inteligência artificial, a demanda por banco de dados de alta qualidade para treinar as IAs cresceu exponencialmente. Para obter esses dados, grandes empresas de tecnologia, como OpenAI, Meta e Google, realizam a chamada “raspagem” de conteúdos da web, coletando terabytes de dados para alimentar seus modelos.
No entanto, um artigo publicado em 2023 alerta que o estoque de dados de texto gerados por humanos pode se esgotar até 2026, caso a velocidade da coleta de dados continue no ritmo atual.
Para chegar a essa conclusão, os autores de “Ficaremos sem dados? Limites da escalabilidade do LLM com base em dados gerados por humanos” desenvolveram um modelo preditivo sobre a demanda por dados e a produção humana de texto com disponibilidade pública na web.
“Nossa análise revela uma conjuntura crítica se aproximando até o final desta década, onde a dependência atual de dados de texto humano público para treinamento de LLMs pode se tornar insustentável”, conclui o time de pesquisadores.
Sem dados humanos de alta qualidade, os modelos de IA podem enfrentar um declínio acentuado em sua capacidade de aprendizado e apresentar uma queda de desempenho.
Com a perspectiva de que os futuros LLMs serão inevitavelmente treinados com dados gerados por IA, os pesquisadores temem um processo degenerativo que tornará as IAs cada vez mais “burras”, podendo levar ao colapso dos modelos de inteligência artificial.
Leia também: