Wikipedia toma medida drástica contra inteligência artificial
Por Viviane França |

A versão em inglês da Wikipedia baniu o uso de modelos de linguagem (LLMs) para criar ou reescrever artigos. A medida começa a valer em março de 2026 e afeta toda a comunidade de editores da plataforma, sendo uma resposta ao aumento de conteúdos gerados por ferramentas de IA, como ChatGPT e Google Gemini.
- Wikipédia completa 25 anos como uma das maiores experiências comunitárias da web
- O que é Grokipedia? Veja como funciona a nova enciclopédia de Elon Musk
O uso de IA será restrito a casos específicos, nos quais editores podem sugerir correções gramaticais e estilísticas em seus próprios textos e recorrer a LLMs para auxiliar na tradução de artigos, desde que tenham fluência nos idiomas e verifiquem a precisão do conteúdo. Todas as contribuições de IA devem passar por revisão humana. Além disso, a Wikipedia criou o WikiProject AI Cleanup, um grupo voluntário dedicado a identificar e remover artigos de baixa qualidade gerados por IA, conhecidos como "AI slop".
A nova diretriz lembra que algumas pessoas escrevem de forma parecida com textos gerados por IA. Por isso, os moderadores não devem punir apenas pelo estilo de escrita e precisam analisar se o editor segue as regras e seu histórico de edições. A Wikipedia reconhece que identificar conteúdo de IA não é exato, e alguns textos indesejados podem passar, principalmente em páginas menos moderadas.
No entanto, a Wikipedia atualizou suas políticas e começou a autorizar a remoção imediata de artigos gerados por IA e publicados sem revisão humana. O administrador que sugeriu a nova regra, conhecido como Chaotic Enby, afirmou que a aprovação massiva do banimento deve servir como um movimento popular, encorajando outras comunidades na internet a definir por conta própria os limites do uso de IA.
As regras podem variar dependendo do idioma. Por exemplo, a plataforma em inglês manteve exceções, mas a versão em espanhol optou por um banimento total do uso de LLMs. Essa aversão à IA já existia na comunidade, inclusive a Wikimedia Foundation chegou a testar a ferramenta Simple Article Summaries, mas os voluntários classificaram a funcionalidade como uma “ideia horrível”, o que levou ao cancelamento do teste.
Por que a Wikipedia vai bloquear conteúdos gerados por IA?
A decisão foi tomada por causa de vários riscos apontados pelos editores, como:
- As LLMs podem criar informações falsas, como artigos sobre lugares que nunca existiram, e inventar citações e referências acadêmicas, prejudicando a credibilidade;
- Rascunhos de baixa qualidade aumentam o trabalho de revisão dos voluntários;
- O uso excessivo de automação desestimula o desenvolvimento da expertise humana e o debate entre a comunidade.
A proibição busca manter a Wikipedia confiável e evitar a queda de qualidade em serviços online causada pelo uso exagerado de IA, processo conhecido como “enshittification”.