Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Aceleradores de IA Intel Gaudi 2 são 55% mais rápidos que NVIDIA H100

Por| Editado por Jones Oliveira | 12 de Março de 2024 às 16h50

Link copiado!

Intel
Intel
Tudo sobre Intel

Novos resultados de benchmarks apontam que aceleradores Intel Gaudi 2 já superam com folga as GPUs da NVIDIA para IA. Em testes de Stable Diffusion, os Gaudi 2 foram 55% mais rápidos que as GPUs NVIDIA H100 e 3 vezes mais rápidos que as A100 em benchmarks sintéticos de IA.

Naturalmente, a comparação considera apenas as soluções NVIDIA que já estão no mercado, lembrando que os aceleradores com arquitetura Blackwell devem ser apresentados na próxima semana durante a GTC 2024. No entanto, a Intel já está trabalhando nos aceleradores Gaudi 3, supostamente projetados para enfrentar a próxima geração de GPUs NVIDIA para IA.

Continua após a publicidade

Ecossistema de IA mais diverso

Os testes foram divulgados pela empresa Stability AI, especializada em desenvolver modelos LLM abertos para uma série de aplicações, com parâmetros entre 800 milhões e 8 bilhões. No teste com o Stable Diffusion 3, modelo de IA Generativa de texto para imagem, os Gaudi 2 entregaram 927 imagens/s, contra 595 dos NVIDIA H100, e apenas 381 das A100.

As placas H100 compõe praticamente toda a infraestrutura de IA atual, principalmente nos serviços baseados no modelo GPT. Apesar de estar chegando apenas agora no mercado de IA, a Intel está otimizando rapidamente o desempenho de seus aceleradores para garantir logo de saída um portfólio em escala para atender um volume mais amplo de clientes.

PlataformaBibliotecaAceleradoresAgrupamentos por aceleradorTotal de Agrupamentos

Imagens/segundo

(100-MA)

Gaudi2FusedSDPA16325121.254
Gaudi2FusedSDPA1616256927
H100-80GBxFormers1616256595
A100-80GBxFormers1616256381

A ideia não é fazer com que as empresas que já utilizam aceleradores de IA, obrigatoriamente, migrem para os Gaudi, mas garantir que o produto seja competitivo. Com isso, é possível assegurar tanto contratos com clientes que ainda não adotaram plataformas de IA, quanto eventuais atualizações e expansões de infraestrutura.

Vale ressaltar ainda que as GPUs são geralmente mais eficientes nos processos de treinamento dos modelos LLM, enquanto as execuções de inferência, propriamente, são processadas em CPUs. Com Intel e AMD investindo em soluções de processadores para IA, é esperado que a disseminação da Inteligência Artificial ao longo do próximo ano seja mais diversificada, dependendo relativamente menos de aceleradores, reduzindo um pouco a atual liderança isolada da NVIDIA no setor, e promovendo um ecossistema mais diverso.