Publicidade

Veo 3.1 é a nova IA do Google para criar vídeos realistas

Por  • Editado por Bruno De Blasi | 

Compartilhe:
Marcelo Salvatico/Canaltech
Marcelo Salvatico/Canaltech

O Google revelou o Veo 3.1, nova geração da IA para criar vídeos da empresa, na última quarta-feira (15). A nova atualização garante vídeos mais longos, maior compreensão de detalhes e novos recursos para criar cenas com base em referências já existentes.

A maior parte dos ajustes pode ser encontrada na plataforma Flow, voltada para projetos cinematográficos com inteligência artificial. O lançamento também pode ser uma resposta ao Sora 2, da OpenAI, que ganhou muita popularidade nos EUA.

Novidades do Veo 3.1

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O Veo 3.1 tem melhorias gerais na compreensão dos prompts, mas os destaques ficam por conta dos novos controles de edição com áudio.

É possível sincronizar o som com recursos como o “Ingredients to Video” (“Ingredientes para vídeo”, em tradução livre), no qual é possível enviar até três imagens de referência para que a IA crie um clipe com todos os elementos mencionados

O suporte com áudio também está presente na opção para criar um clipe tendo apenas o frame inicial e o frame final — a IA trata de gerar as cenas que acontecem entre um momento e outro.

Outra novidade importante é um comando de edição sobre os vídeos já existentes no Flow: mesmo após a IA criar um clipe, é possível enviar outro prompt com detalhes adicionais, como adicionar um objeto ou mudar cores da paisagem.

As novas ferramentas podem ser muito úteis em peças comerciais, quando há uma demanda maior para manter consistência entre os vídeos. 

Quem pode acessar a IA?

O novo modelo e os recursos de edição já estão disponíveis na plataforma Flow, enquanto o Veo 3.1 também pode ser usado pelo chatbot do Gemini. Vale destacar que a criação de vídeos é um recurso exclusivo para os planos pagos de IA do Google.

Continua após a publicidade

Leia também:

VÍDEO: você sabe identificar um deepfake?