Memórias HBM4 devem trazer largura de banda duas vezes maior
Por Daniel Trefilio • Editado por Jones Oliveira |
As novas memórias HBM, supostamente, irão trazer salto considerável em largura de banda sobre as HBM3. As memórias HBM4, em desenvolvimento pela Samsung e SK Hynix, contariam com 2000 portas I/O e duas vezes a largura de banda atual, potencialmente revolucionando a computação de alto desempenho (HPC) e as GPUs para Inteligência Artificial.
Apesar de ainda não haver confirmação oficial por parte da Samsung, a informação foi divulgada no Seoul Economy e teria vindo de fontes seguras. Atualmente, as memórias HBM3 integradas a chips de IA já têm potencial para alcançar até 5 TB/s de banda.
Como lidar com isso tudo
Mesmo nas Nvidia H100, capazes de altíssimas cargas de trabalho, existe um limite de quantas instruções e inferências o chip consegue processar. Por essa razão, mesmo com as HBM3, as especificações técnicas da própria Nvidia definem a largura de banda atual em 3 TB/s.
Com isso, nas atuais configurações já é difícil saturar os canais de comunicação entre memórias e GPUs. Desa forma, elevar ainda mais esse potencial não deve fazer diferença significativa imediatamente, mas abre margem para escalar bruscamente a carga de trabalho em arquiteturas futuras, sem que a velocidade e vias de comunicação sejam gargalos.
A Nvidia já está trabalhando nas novas GPUs Blackwell G100, para IA, supostamente com dies modulares. Adotar essa nova arquitetura de processador é, justamente, um fator importante para garantir melhor aproveitamento das especificações do hardware.
Além de otimizar o espaço do die na PCB, fica mais fácil implementar novas tecnologias embarcadas, como aceleradores IA especializados. Até o momento o esperado é que as GPUs Nvidia G100 ainda utilizem memórias HBM3, possivelmente saturando seu potencial, mas com o salto de escalabilidade esperado, é provável que soluções com as HBM4 não demorem para surgir no mercado.
Fonte: DigiTimes