Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

AMD revela EPYC com 128 núcleos, soluções para IA e GPU MI300X com 192 GB de RAM

Por| Editado por Wallace Moté | 13 de Junho de 2023 às 16h34

Link copiado!

Fábio Jordan
Fábio Jordan
Tudo sobre AMD

A AMD anunciou hoje (13) os processadores AMD EPYC de 4ª geração de código 97X4, até então conhecidos pelo codinome “Bergamo”, que se destacam pela configuração de 128 núcleos “Zen 4c” por socket. Além disso, a fabricante revelou novos chips EPYC compatíveis com a tecnologia AMD 3D V-Cache, com mais de 1 GB em nível L3.

As novidades para computação nativa em nuvem foram divulgadas no evento “Data Center and AI Technology Premiere”, realizado em San Francisco, Califórnia, onde a AMD também divulgou soluções inéditas para redes e anúncios pertinentes para a constante demanda de computação focada em inteligência artificial.

Em um primeiro momento, Lisa Su, CEO da AMD, ressaltou como os processadores AMD EPYC Genoa, anunciados em novembro de 2022, têm sido amplamente adotados por diversas empresas que necessitam de maior performance e uma eficiência energética aprimorada, o que resulta em um melhor custo-benefício para os clientes.

Continua após a publicidade

AMD EPYC Bergamo para computação nativa em nuvem

Para dar continuidade a esta crescente, Lisa Su trouxe ao palco o novo AMD EPYC 97X4, que é focado em computação nativa em nuvem, onde a eficiência energética é de suma importância. Para esta abordagem diferenciada, os chips Bergamo usam novos núcleos Zen 4c, que são 35% menores que os Zen 4.

As CPUs Bergamo têm uma distribuição de núcleos diferente. Enquanto os modelos Genoa trabalham com 12 CCDs de 8 núcleos cada, os novos chips Bergamo usam 8 CCDs com 16 núcleos. Essa diferença no tamanho e disposição garante então uma configuração de 128 núcleos por socket e a maior densidade de vCPU.

Continua após a publicidade

O resultado dessa nova abordagem é um processador mais eficiente, mas ainda muito poderoso em termos de performance, com a promessa de até 2,7 vezes melhor eficiência energética para a computação nativa em nuvem, que vem sendo cada vez mais requisitada por empresas como AWS e Meta, as quais até deram seus depoimentos no evento.

Mesmo com a nova abordagem, os chips Bergamo mantêm a compatibilidade com o socket SP5, bem como têm total compatibilidade com os atuais softwares. Por fim, a AMD revelou que estas CPUs já estão disponíveis para seus clientes, portanto os benefícios práticos para o consumidor final podem ser vistos em breve.

Data center em evolução

Para as companhias que necessitam de computação massiva, a AMD reforçou suas estratégicas nos chips EPYC com a introdução do Genoa-X, que tem a tecnologia AMD 3D V-Cache. Essas CPUs podem ser equipados com mais de 1 GB de cache em nível L3, o que impulsiona significativamente a performance para grandes volumes de dados.

Continua após a publicidade

Tão importante quanto o avanço nas CPUs de servidores, que precisam ser cada vez mais rápidas e eficientes, os data centers necessitam de hardware adicional para cargas especificas de trabalho, as quais podem ser executadas de forma independente, sem sobrecarregar a CPU.

Assim, a AMD ressaltou seu portfolio com a DPU (Unidade de Processamento de Dados) que leva o nome AMD Pensando, bem como NICs (placas de interface de rede) de baixíssima latência e adaptativas. Com esse tipo de solução, a AMD revela que é possível eliminar a sobrecarga em situações de virtualização.

O destaque neste sentido foi para a AMD Pensando, que combina um stack de software com segurança máxima (de estratégia Zero Trust Security) e pacotes programáveis. A AMD também anunciou SSDKs (Kits de Desenvolvimento do tipo Software em Silício) para que os clientes possam testar, desenvolver e migrar para o AMD Pensando P4.

Continua após a publicidade

Novas capacidades para inteligência artificial

Com a atual crescente de soluções para Inteligência Artificial, a AMD anunciou os detalhes da nova família de placas gráficas aceleradoras AMD Instinct MI300, incluindo a MI300X, que conta com a arquitetura de próxima geração AMD CDNA 3.

Com essas novas GPUs, a AMD promete desempenho elevado para os mais variados modelos de inteligência artificial. Segundo os dados da AMD, é possível rodar tarefas complexas como o processamento do Chat GPT usando menos GPUs, o que significa uma redução de custos para as empresas que apostam nesse segmento.

Continua após a publicidade

Para esta melhoria em processamento de IA, a placa aceleradora MI300X conta com 153 bilhões de transistores. Além disso, ela suporta até 192 GB de memória HBM3, que tem largura de banda de 5,2 TB/s. Esta placa ainda conta com Infinity Fabric com capacidade de 896 GB/s de largura de banda.

Para se ter uma ideia, a MI300X pode executar cerca de 8 bilhões de parâmetros, mas sua memória pode comportar um volume ainda maior de parâmetros. Segundo a AMD, é possível; colocar um modelo de linguagem como o Falcon-40B na memória e assim executar tarefas complexas com uma única GPU MI300X.

Focada em soluções prontas e agilizadas, a AMD também apresentou um novo produto que integra a AMD Instinct Platform. Trata-se de um conjunto que combina 8 placas MI300X e assim entrega 1,5 TB de memória para atividades ainda mais complexas.

Continua após a publicidade

As placas AMD Instinct MI300X estarão disponível no 3º trimestre de 2023, sendo que elas podem ser facilmente implementadas nos atuais sistemas com poucas mudanças. Os resultados práticos destas novas GPUs em ação deve ser percebido em breve, já que a AMD está trabalhando com muitos parceiros como a Hugging Face.