Deepfakes estão fora de controle? Entenda os riscos e como se proteger
Por Elisa Fontes • Editado por Bruno De Blasi |

Uma declaração de uma autoridade que não foi de fato dita, uma notícia do Jornal Nacional que circulou de forma distorcida e até mesmo o acesso a contas privadas de terceiros. O deepfake é um dos grandes desafios para a segurança digital e o avanço das IAs generativas colocam ainda mais pressão para acharmos a resposta para o controle desse uso indevido da tecnologia.
O deepfake é um conteúdo gerado por IA que modifica vídeos ou fotos originais de modo que pareçam hiper-realistas. O risco principal na manipulação do conteúdo está nos seus fins e intenções, muitas vezes sendo ilícitos. A exemplo disso, o Brasil registrou um aumento de 700% em fraudes baseadas em deepfake no último ano, segundo dados da Sumsub, empresa de verificação de identidade.
O que torna os deepfakes tão perigosos?
O advogado Mario Cosac, sócio do Failla Lima Advogados e especializado em responsabilidade civil e tecnologia, explica que o acesso a uma base de dados cada vez maior e às ferramentas fizeram com que esse tipo de conteúdo fosse mais aperfeiçoado e atingisse principalmente pessoas públicas.
“Personalidades públicas e influentes, você tem [acesso a] conteúdo audiovisual deles em abundância. Então isso torna muito mais acessível você criar o deep fake hoje em dia”, afirma.
Nas redes sociais, esse tipo de conteúdo é distribuído em larga escala e significam um risco em diferentes níveis e instituições, de acordo com o advogado:
- Desinformação: vídeos manipulados definem o futuro de decisões e impactam a reputação alheia. Cosac cita como as fake news influenciaram o plebiscito do Brexit como exemplo.
- Erosão da confiança pública em conteúdo: o que circula na internet acaba gerando desconfiança sobre o que é verdade ou não, e isso afeta a democracia como um todo;
- Mais crimes digitais: para além do problema sobre direitos de imagem, golpes e falsificações de identidade atingem desde pessoas físicas, como aquele contato que se passa por você no WhatsApp, a grandes empresas. O advogado cita o caso ocorrido em 2024, no qual um funcionário da empresa britânica Arup pagou US$ 25 milhões a criminosos após uma videochamada com “diretor financeiro” deepfake.
Do ponto de vista empresarial, Augusto Salomon, CEO da StarMind e especialista em IA, aponta que o risco está na falta de preparo na adoção da IA. “Nessa corrida, as empresas acabam comprando ferramentas que não são adequadas para o negócio e acabam caindo em problemas de segurança”, explica.
Cosac e Salomon pontuam, no entanto, que o uso dos modelos de IA generativa avançados como o Veo 3 não é o problema. Essa tecnologia também tem sua importância na indústria cinematográfica e do entretenimento. A questão está no uso indevido dessas ferramentas.
Como proteger a sociedade do uso nocivo da IA?
No Brasil, o deepfake não tem uma legislação específica. Projetos de lei que tramitam no Congresso abordam a regulamentação do uso de IA. No entanto, para os especialistas, essa não deve ser encarada como a única saída.
Outras soluções para combater os deepfakes estão na rota de países como a Dinamarca, que tem um projeto que propõe que cada cidadão tenha controle dos direitos autorais sobre o próprio rosto e voz. As próprias plataformas trabalham para aprimorar seus sistemas de detecção e verificação de conteúdos feitos por IA.
O advogado e o empresário levantam uma outra iniciativa que deve caminhar junto com a elaboração de legislação: a educação digital. Segundo eles, usar IA e navegar na internet exige cada vez mais um pensamento crítico e um exercício de checagem.
“Tem que ter um processo de aculturamento das pessoas em relação à IA, independentemente da idade, porque nós estamos vivendo uma nova era comparável à Revolução Industrial”, afirma Augusto Salomon.
Ouça mais sobre o assunto no Podcast Canaltech e confira outros conteúdos no nosso site: