TSE proíbe ChatGPT, Gemini e outras IAs de indicar candidatos em 2026
Por Marcelo Fischer Salvatico • Editado por Bruno De Blasi | •

O Tribunal Superior Eleitoral (TSE) aprovou nesta segunda-feira (2) um novo conjunto de regras para o uso de inteligência artificial (IA) nas eleições gerais de 2026 — marcadas para 4 de outubro. Entre as principais medidas, a Corte Eleitoral determinou que assistentes virtuais não poderão recomendar candidatos ou expressar preferências políticas aos eleitores.
- AWS sofre instabilidade após início de conflito no Oriente Médio
- Contas lucram US$ 1 mi no Polymarket com ataque dos EUA ao Irã
A restrição afeta diretamente o funcionamento de plataformas como ChatGPT, Gemini, Claude, DeepSeek e Copilot. Com a resolução, as empresas desenvolvedoras deverão ajustar seus sistemas para impedir a indicação de voto ou o ranqueamento de candidaturas, partidos e coligações.
A proibição é válida mesmo se o usuário solicitar expressamente uma sugestão ao chatbot. Segundo o ministro e relator Kassio Nunes Marques, a regra visa impedir a interferência direta dos algoritmos na decisão do eleitorado brasileiro.
Proibição às vésperas da votação
O TSE também estabeleceu um limite temporal rigoroso para a circulação de mídias geradas por IA.
Fica proibida a veiculação de qualquer novo conteúdo sintético produzido ou alterado pela tecnologia nas 72 horas que antecedem o pleito e nas 24 horas seguintes à votação. A restrição exige ainda que o material contenha o selo indicativo de uso de inteligência artificial.
Fora desse período restrito, o uso de áudios, imagens e vídeos alterados digitalmente é permitido durante a campanha. As campanhas devem informar de maneira explícita, destacada e acessível que se trata de um conteúdo manipulado e apontar qual tecnologia foi empregada.
A resolução incluiu uma vedação específica contra a criação e o compartilhamento de deepfakes que contenham cenas de sexo, nudez ou pornografia envolvendo candidatas e candidatos. O objetivo da medida é combater a misoginia e a violência política de gênero no ambiente digital.
Responsabilidade das plataformas
As regras eleitorais de 2026 preveem a responsabilidade solidária das grandes empresas de tecnologia.
Redes sociais e provedores de IA poderão ser punidos pela Justiça caso não retirem do ar, de forma imediata, conteúdos irregulares, ilícitos ou desinformativos gerados por inteligência artificial. O conteúdo que não seguir as regras de rotulagem poderá ser enquadrado como desinformação.
As plataformas também são obrigadas a banir contas operadas por robôs ou perfis falsos que atuem de forma reiterada para comprometer a integridade do processo eleitoral.
Veja também: