Publicidade

Treinamento do DeepSeek R1 custou 300 vezes menos que o do GPT-4; entenda

Por  | 

Compartilhe:
 Solen Feyissa/Unsplash
Solen Feyissa/Unsplash

O custo para o treinamento do DeepSeek finalmente foi revelado em um relatório divulgado pela própria empresa. O modelo R1 da inteligência artificial (IA) movimentou o mercado em janeiro por ter capacidade de raciocínio semelhante à de concorrentes por um custo muito menor.

De acordo com a publicação da empresa chinesa na Nature, o modelo custou US$ 294 mil (cerca de R$ 1,6 milhão) para ser treinado, e utilizou 512 chips H800 da Nvidia

Para comparação, o treinamento do GPT-4 da OpenAI custou entre US$ 80 milhões e US$ 100 milhões, de acordo com o CEO da OpenAI, Sam Altman. Ou seja, se considerarmos uma média de custo de R$ 90 milhões, o DeepSeek R1 foi mais de 300 vezes mais barato

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Por que tão mais barato?

Segundo a empresa chinesa de IA, o motivo do valor tão abaixo para o treinamento do modelo de linguagem é devido à técnicas de aprendizagem baseadas em tentativa e erro.

A maioria dos modelos de linguagem de IA são treinados com exemplos humanos e demonstrações específicas para aprender a resolver tarefas que necessitam de raciocínio. Este processo é caro e difícil de escalar à medida que os problemas se tornam mais complexos. 

O que o DeepSeek fez foi, ao invés de fazer com que seu modelo aprendesse a partir de exemplos semelhantes, aprendesse com tentativa e erro, até que encontrasse a resposta certa.

No artigo publicado na Nature, a professora-assistente da Universidade Carnegie Mellon e o doutorando Yiming Zhang comparam o método de aprendizado do DeepSeek R1 com uma criança jogando videogame. 

“À medida em que a criança explora com seu avatar pelo mundo do jogo, ela aprende por tentativa e erro que algumas ações, como coletar moedas, rendem pontos, enquanto outras, como ser atacado por inimigos, fazem com que perca pontuação”, afirmaram os pesquisadores. 

Eles contam que, assim como em um jogo, o R1 recebia uma pontuação alta quando respondia perguntas corretamente, e perdia pontos quanto às errava. 

Usando este mesmo exemplo, enquanto o DeepSeek era treinado por tentativa e erro, os modelos comuns estariam seguindo infinitos tutoriais para passar pelas fases do jogo. 

Continua após a publicidade

Ou seja, como o R1 tinha maior entendimento de como seguir no jogo a partir do seu aprendizado, a partir de um certo ponto, levou muito menos tempo para chegar onde outros modelos chegaram.

O efeito DeepSeek

Quando foi lançado em janeiro de 2025, o DeepSeek surpreendeu o mundo e o mercado, por ser um modelo de linguagem de inteligência artificial de código aberto e gratuito, com potencial semelhante à concorrência de OpenAI e Google.

Pouco depois do seu lançamento, a Nvidia viu suas ações caírem cerca de 18%, resultando em perda de US$ 600 bilhões em valor de mercado, o maior declínio de uma única empresa na história da bolsa dos Estados Unidos. 

Continua após a publicidade

O impacto do DeepSeek foi também geopolítico, à medida que países como os EUA, Canadá e Itália colocaram restrições de uso ao DeepSeek em dispositivos governamentais devido a preocupações com privacidade e segurança.

Veja também:

VÍDEO: Como instalar o DeepSeek R1 no seu computador? Ele consegue rodar a inteligência artificial offline?

Continua após a publicidade