Publicidade

AMD aposta em eficiência para liderar corrida da IA nos data centers

Por  | 

Compartilhe:
Divulgação/AMD
Divulgação/AMD

Durante o Advancing AI 2025, evento que reuniu especialistas e líderes do setor em San Jose (EUA) para apresentar as novidades da AMD em tecnologias para Inteligência Artificial e data centers, a empresa detalhou sua estratégia com foco em eficiência, flexibilidade e inovação.

Andrew Dieckman, vice-presidente corporativo e gerente geral da divisão de Data Center GPU da AMD, falou sobre as gerações de chips, tendências de resfriamento e a importância da economia de tokens para a operação de IA.

Estratégia da AMD para GPUs

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Dieckman explicou que a AMD mantém no mercado várias gerações de GPUs aceleradoras de IA, como a MI-300, MI-325 e MI-350, para atender clientes com diferentes demandas e estágios de adoção da tecnologia.

“Temos diferentes perfis de clientes. Alguns ainda usam MI-300X, enquanto outros já avançam com a MI-325 e se preparam para a MI-350. Nosso papel é oferecer opções que façam sentido para cada negócio”, afirmou.

Essa estratégia permite que empresas com orçamentos e cargas de trabalho variadas escolham a GPU ideal, sem perder flexibilidade nem performance.

Resfriamento líquido: tendência em data centers para maior eficiência

Sobre o resfriamento de data centers, a AMD observa uma migração crescente para o liquid cooling (resfriamento líquido), que traz mais eficiência energética e redução de custos a longo prazo.

“Muitos novos data centers já são construídos com resfriamento líquido direto, e também vemos retrofits em instalações antigas. Isso acontece porque o liquid cooling oferece melhor custo-benefício para nossos clientes”, explicou Dieckman.

Apesar disso, soluções de resfriamento a ar ainda são usadas em muitas infraestruturas existentes, mas o futuro aponta para uma adoção cada vez maior de sistemas líquidos.

Economia de tokens: como otimizar custos na operação de IA

Continua após a publicidade

Um dos pontos mais importantes na adoção de IA, segundo Dieckman, é a economia de tokens, ou seja, a redução do custo para gerar resultados em modelos de linguagem e aprendizado de máquina.

“Conseguimos oferecer 30% a 40% mais tokens por dólar investido, e isso faz toda a diferença na competitividade do cliente. A operação de IA só é sustentável se esse custo estiver otimizado”, destacou.

Essa eficiência é alcançada graças à integração do hardware com melhorias contínuas no software, permitindo até 2 ou 3 vezes mais performance no mesmo equipamento.

Produção nos EUA e diversificação da cadeia produtiva

Continua após a publicidade

Questionado sobre a produção nos Estados Unidos, Andrew Dieckman revelou que a AMD está investindo em aumentar a fabricação local para garantir resiliência e diversificação da cadeia, embora ainda não tenha anunciado fábricas específicas.

“Estamos explorando a produção nos EUA. É uma direção estratégica importante para nós”, afirmou.

A diversificação busca diminuir a dependência da cadeia global, especialmente em relação a Taiwan, tradicional polo da indústria de semicondutores.

O AMD Advancing AI acontece em San Jose, Califórnia (EUA), nesta quinta-feira (12). O Canaltech viajou para o evento a convite da AMD.

Continua após a publicidade

Saiba mais: