Aceleradores de IA Intel Gaudi 2 são 55% mais rápidos que NVIDIA H100
Por Daniel Trefilio • Editado por Jones Oliveira |
Novos resultados de benchmarks apontam que aceleradores Intel Gaudi 2 já superam com folga as GPUs da NVIDIA para IA. Em testes de Stable Diffusion, os Gaudi 2 foram 55% mais rápidos que as GPUs NVIDIA H100 e 3 vezes mais rápidos que as A100 em benchmarks sintéticos de IA.
- Era da IA nos PCs | As projeções da Intel para 2024 e além
- Nvidia | IA é o próximo ponto de inflexão da indústria de games
Naturalmente, a comparação considera apenas as soluções NVIDIA que já estão no mercado, lembrando que os aceleradores com arquitetura Blackwell devem ser apresentados na próxima semana durante a GTC 2024. No entanto, a Intel já está trabalhando nos aceleradores Gaudi 3, supostamente projetados para enfrentar a próxima geração de GPUs NVIDIA para IA.
Ecossistema de IA mais diverso
Os testes foram divulgados pela empresa Stability AI, especializada em desenvolver modelos LLM abertos para uma série de aplicações, com parâmetros entre 800 milhões e 8 bilhões. No teste com o Stable Diffusion 3, modelo de IA Generativa de texto para imagem, os Gaudi 2 entregaram 927 imagens/s, contra 595 dos NVIDIA H100, e apenas 381 das A100.
As placas H100 compõe praticamente toda a infraestrutura de IA atual, principalmente nos serviços baseados no modelo GPT. Apesar de estar chegando apenas agora no mercado de IA, a Intel está otimizando rapidamente o desempenho de seus aceleradores para garantir logo de saída um portfólio em escala para atender um volume mais amplo de clientes.
Plataforma | Biblioteca | Aceleradores | Agrupamentos por acelerador | Total de Agrupamentos | Imagens/segundo (100-MA) |
Gaudi2 | FusedSDPA | 16 | 32 | 512 | 1.254 |
Gaudi2 | FusedSDPA | 16 | 16 | 256 | 927 |
H100-80GB | xFormers | 16 | 16 | 256 | 595 |
A100-80GB | xFormers | 16 | 16 | 256 | 381 |
A ideia não é fazer com que as empresas que já utilizam aceleradores de IA, obrigatoriamente, migrem para os Gaudi, mas garantir que o produto seja competitivo. Com isso, é possível assegurar tanto contratos com clientes que ainda não adotaram plataformas de IA, quanto eventuais atualizações e expansões de infraestrutura.
Vale ressaltar ainda que as GPUs são geralmente mais eficientes nos processos de treinamento dos modelos LLM, enquanto as execuções de inferência, propriamente, são processadas em CPUs. Com Intel e AMD investindo em soluções de processadores para IA, é esperado que a disseminação da Inteligência Artificial ao longo do próximo ano seja mais diversificada, dependendo relativamente menos de aceleradores, reduzindo um pouco a atual liderança isolada da NVIDIA no setor, e promovendo um ecossistema mais diverso.