Trainium 3 é o novo chip de IA da AWS para agilizar treinamento de modelos
Por Bruno De Blasi |

A Amazon Web Services (AWS) agora oferece servidores Amazon EC2 Trn3 UltraServer com o chip de IA Trainium 3. O lançamento ocorreu nesta terça-feira (2), no AWS re:Invent 2025, e busca reduzir custos e acelerar o treinamento e a inferência de modelos de inteligência artificial em larga escala.
- AWS revela IA que caça bugs e falhas de segurança em apps ‘sem parar’
- AWS lança Nova 2 com modelos de IA para gerar imagens, agentes e automação
Os novos servidores são equipados com o Trainium 3, o primeiro chip de IA da empresa feito em processo de três nanômetros. A promessa é que a plataforma entregue desempenho operacional, eficiência energética e largura de banda de memória quatro vezes melhor em relação ao Trainium 2.
Cada Trn3 UltraServer integra até 144 chips Trainium 3 em um único sistema, alcançando até 362 PFLOPs em precisão FP8 e latência até quatro vezes menor para treinar modelos de IA avançados e atender inferência em grande escala.
De acordo com a AWS, em testes com o modelo GPT-OSS, a nova geração entregou três vezes mais throughput por chip e respostas até quatro vezes mais rápidas em comparação com a geração anterior.
A melhoria de desempenho vem acompanhada de ganhos em eficiência, com a oferta de quase 40% de economia de energia em relação à geração anterior. Essa combinação garante uma infraestrutura de IA mais barata enquanto reduz o impacto ambiental dos data centers. 
Além do chip, a AWS redesenhou a infraestrutura de rede interna. O novo NeuronSwitch-v1 dobra a largura de banda dentro de cada UltraServer, enquanto a malha Neuron Fabric reduz a latência de comunicação entre chips para menos de dez microsegundos.
Para demandas que precisam de escalabilidade maior, os EC2 UltraClusters 3.0 conseguem interligar milhares de UltraServers, com capacidade para até 1 milhão de chips Trainium em um cluster de IA de próxima geração.
Trainium 4
A empresa também antecipou os detalhes do futuro Trainium 4. O chip será projetado para oferecer pelo menos seis vezes mais desempenho em FP4, três vezes mais performance em FP8 e quatro vezes mais largura de banda de memória na comparação com a geração atual.
O Trainium 4 será desenvolvido com suporte ao NVIDIA NVLink Fusion, tecnologia de interconexão de alta velocidade entre chips.
Segundo a Amazon, o Trainium 4, processadores Graviton e o adaptador de rede Elastic Fabric Adapter (EFA) poderão operar juntos em racks MGX, a fim de criar uma infraestrutura de IA em rack compartilhado que combina servidores com GPUs e Trainium em um mesmo ambiente.
Cabe ressaltar que ainda não há data de lançamento para os chips Trainium 4.
Leia mais: