Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

SK Hynix é primeira do mundo a fornecer RAM HBM3 para GPU Nvidia H100

Por| Editado por Wallace Moté | 09 de Junho de 2022 às 13h26

Link copiado!

SK Hynix
SK Hynix

Em comunicado divulgado nesta quarta-feira (8), a SK Hynix confirmou que será a primeira fabricante de memórias do mundo a fornecer DRAM HBM3 para fabricação da GPU H100 da Nvidia. A empresa deu ênfase aos benefícios da quarta geração do componente, com destaque para o tempo levado até o início da fabricação em massa e a largura de banda, que atinge quase o dobro de velocidade em comparação à geração anterior.

SK Hynix será primeira fornecedora de HBM3 para Nvidia

Segundo o anúncio, as memórias HBM3 acabam de entrar na fase de produção em massa, sete meses depois da fase de risco, em que os primeiros chips começaram a ser produzidos — a SK Hynix destaca como foi "a primeira companhia a fabricar a DRAM de nova geração", em outubro do ano passado.

Continua após a publicidade

Quarta geração da High Bandwidth Memory (HBM), a HBM3 chega para suceder a HBM2e, prometendo melhorias significativas que incluem interface de 1.024-bit, chips mais densos com até 12 substratos empilhados e capacidade de até 24 GB, além de até 819 GB/s de largura de banda. Em comparação, a geração passada suportava até 8 substratos empilhados, 16 GB de capacidade por chip e largura de banda de 460 GB/s.

Ainda de acordo com o comunicado, a SK Hynix será a primeira companhia a fornecer as novas memórias à Nvidia, que concluiu recentemente a etapa de avaliação de desempenho dos módulos, para uso na recém-anunciada GPU para data centers H100. Os primeiros lotes devem chegar já no terceiro trimestre de 2022, com expectativa de aumento do volume de produção na primeira metade de 2023, seguindo o cronograma de estreia da H100.

Com as melhorias proporcionadas pela HBM3 e, consequentemente, com a Nvidia H100, as gigantes esperam possibilitar avanços marcantes em segmentos de tecnologia de ponta, como Inteligência Artificial e Big Data, o processamento de dados massivos gerados atualmente.

GPU H100 é "acelerador mais poderoso do mundo"

Anunciada no final de março, a Nvidia H100 promete ser o "acelerador mais poderoso do mundo", trazendo grande foco no processamento de Inteligência Artificial. O componente é alimentado pelo chip GH100, fabricado no processo customizado 4N de 4 nm da TSMC, apresentando 80 bilhões de transistores, número 50% maior frente à sua antecessora, a Nvidia A100 com chip GA100.

Continua após a publicidade

A implementação completa do GH100 traz 144 Streaming Multiprocessors (SMs) com 128 núcleos CUDA cada, totalizando 18.432 núcleos, 2,25 vezes mais que o GA100. A novidade também embarca 4 Tensor Cores de 4ª geração por SM, para um total de 576, com suporte a cálculos com dados no formato FP8, que seriam até 6 vezes mais velozes que o desempenho de FP16 da A100 segundo a Nvidia.

Outros destaques incluem a adição dos Transformer Engines, motores dedicados para processamento de reconhecimento de linguagem, capacidade de isolar os dados das aplicações para garantir a segurança das informações, NVLink de 4ª geração para conectar múltiplas H100 com largura de banda de 900 GB/s, barramento PCIe 5.0, além das próprias memórias HBM3.

Fonte: WCCFTech