Publicidade

IA Veo 3 cria vídeos realistas, mas especialistas alertam sobre possíveis riscos

Por  • Editado por Bruno De Blasi | 

Compartilhe:
Reprodução/Google
Reprodução/Google

O Veo 3 deu o que falar devido aos vídeos realistas que remontam acontecimentos históricos, simulam um jornal ao vivo e mais publicados em redes sociais. Contudo, especialistas ouvidos pelo Canaltech chamaram a atenção para eventuais riscos que podem surgir com o uso de ferramentas de IA para gerar vídeos, especialmente em relação à desinformação e deepfakes.  

O presidente do Instituto Brasileiro para a Regulamentação da Inteligência Artificial (IRIA), Marcelo Senise, aponta que soluções para criar vídeos com IA, como o Veo 3 e o Sora, da OpenAI, podem gerar uma nova avalanche de desinformação visual em conjunto com a textual que já acontece. 

"A combinação entre essas ferramentas e redes sociais que operam sob uma lógica algorítmica de engajamento cria o terreno perfeito para o colapso da confiança pública. A crise de legitimidade não virá apenas da mentira, mas da impossibilidade de confirmar a verdade", prevê Senise. 

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

As suas previsões estão de acordo com comentários publicados em redes sociais. No X, alguns usuários destacam o impacto que as soluções de IA poderão causar em casos de uso indevido: "A ferramenta levanta possibilidade de crimes a serem cometidos contra famosos, personalidades e durante eleições", indica um usuário no ex-Twitter

Senise explica que as plataformas para gerar vídeos com IA e redes sociais operam por uma lógica algorítmica de engajamento, o que cria um "terreno perfeito para o colapso da confiança pública", especialmente com conteúdos que simulam falas de figuras públicas, por exemplo, seja para aplicar golpes ou em um contexto eleitoral.

Vídeo ilícitos podem infringir leis

A possibilidade de gerar vídeos com IA para fins ilícitos pode resultar em uma série de crimes. O advogado especialista em direito digital do escritório Peck Advogados, Henrique Rocha, explica que as consequências jurídicas para os conteúdos gerados por essas ferramentas são expressivas

"Do ponto de vista jurídico, todos os tipos penais como fraude, desinformação, casos de contratação equivocada, oferta de produtos e serviços realizados com abuso de direito ou eventualmente baseados em propaganda enganosa, são absolutamente aptos a ocorrerem com o uso dessas ferramentas", aponta o especialista. 

Rocha ainda destaca que a legislação brasileira, hoje, já atribui responsabilidade para pessoas que compartilham vídeos criminosos nas redes. O desafio, porém, está na identificação de quem cria o conteúdo que, muita vezes, produz em anonimato. 

Em relação às eleições de 2026, o especialista aponta que há uma proibição vigente do Tribunal Superior Eleitoral (TSE) para uso de deepfakes nas campanhas. Além disso, o órgão exige um selo para indicar se algum recurso de IA foi usado em materiais políticos. 

Continua após a publicidade

Riscos de segurança 

O especialista em cibersegurança e membro do Comitê Nacional de Cibersegurança (CNCiber), Rodrigo Fragola, aponta que o lançamento trouxe um componente a mais como risco: o realismo

"Outras ferramentas anteriores já são exemplo de golpes que visam o roubo de informação e facilitam golpes de phishing", elenca o especialista.

Fragola também alerta que golpes antigos, como o do parente pedindo dinheiro, devem ganhar uma cara nova com o uso da tecnologia. 

Continua após a publicidade

O diretor de privacidade e governança da Tripla, João Lucas Saldanha, adiciona que o Veo 3 permite que pessoas com poucos recursos e capacidade técnica consigam criar vídeos complexos, com falas, entonações e gestos, com facilidade. 

"A partir disso, abre-se uma série de possibilidades de uso malicioso. Um vídeo falso de um gestor solicitando a liberação de um pagamento, ou de um diretor jurídico autorizando uma quebra de sigilo, por exemplo, pode ser suficiente para induzir um colaborador desatento e destreinado ao cometimento de um erro catastrófico", lista o diretor. 

Segurança digital nas eleições

Apesar de ser em 2026, o período de pré-campanha se aproxima e os riscos que essas ferramentas apresentam, também. O especialista em direito digital, Henrique Rocha, aponta que o Brasil tem arcabouços para garantir um processo eleitoral minimamente aceitável no próximo ano. 

Continua após a publicidade

O diretor de privacidade da Tripla também aponta que uma tática eficiente para ser feita antes do pleito é uma campanha poderosa, contundente e persistente de conscientização em massa que "vise educar, o máximo possível, eleitores e usuários da rede quanto aos riscos das IAs generativas e acerca do necessário ceticismo diante de conteúdo online". 

O que diz o Google?

Procurado pelo Canaltech, o Google acredita que a "IA tem um grande potencial para possibilitar novas formas de criatividade, democratizar a produção criativa e ajudar as pessoas a expressarem suas visões artísticas", e frisou que suas regras vetam uma série de usos nocivos da ferramenta.

"Nossas políticas restringem o uso de nossos modelos para atividades sexualmente explícitas, violentas, odiosas ou prejudiciais, como discurso de ódio ou bullying, e para desinformação, deturpação ou atividades enganosas, incluindo fraudes, golpes ou outras ações enganosas como a falsificação de identidade, entre outras", disse em nota.
Continua após a publicidade

Ainda segundo a companhia, a tecnologia SynthID permite descobrir a origem de vídeos espalhados pela internet ao inserir "marcas d'água digital em todos conteúdos gerados por modelos de IA generativa do Google".

Leia mais:

VÍDEO: Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?

Continua após a publicidade