Publicidade

Maia 200 é o novo chip de IA da Microsoft que promete superar o Google e Amazon

Por  |  • 

Compartilhe:
Divulgação/Microsoft
Divulgação/Microsoft

A Microsoft revelou, nesta segunda-feira (26), seu novo acelerador de inteligência artificial com foco em inferência de modelos de IA em larga escala. Conhecido como Maia 200, o chip promete superar concorrentes com seu poder computacional de mais de 10 petaFLOPS (PFLOPS).

Os “chips de IA” são processadores projetados para rodar modelos com mais eficiência graças à otimização para operações matemáticas intensivas realizadas pelas ferramentas de inteligência artificial.

Entre elas, a “fase operacional”: a inferência. Ou seja, quando um modelo já treinado, como o GPT-5.2, Gemini 3 Pro e o Claude 4.5 Haiku, aplica o que “aprendeu” e processa os dados para gerar respostas de uma pergunta ou auxiliar na redação de um texto, por exemplo.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Assim, empresas como Microsoft, Google e Amazon, que processam bilhões de requisições de IA diariamente, conseguem diminuir o consumo de energia durante esses processos. O que, por si só, garante a oferta desses serviços em larga escala com a redução dos custos de operação.

O Maia 200 funciona através de núcleos tensores especializados em cálculos de baixa precisão. A empresa afirma que o componente entrega mais de 10 PFLOPS em precisão de 4 bits (FP4) e cerca de 5 PFLOPS em 8 bits (FP8).

Para colocar esses números em perspectiva, um petaFLOPS equivale a 1 quatrilhão de operações matemáticas por segundo. Assim, o Maia 200 consegue realizar 10 quatrilhões de cálculos a cada segundo quando opera em FP4.

“Um único nó Maia 200 pode executar sem esforço os maiores modelos atuais, com ampla margem para modelos ainda maiores no futuro”, disse o vice-presidente executivo de Cloud e IA da Microsoft, Scott Gunthrie.

Em comparação direta, a Microsoft aponta que o desempenho FP4 do Maia 200 é quase quatro vezes superior ao AWS Trainium 3, da Amazon. Já a performance FP8 é aproximadamente maior que o TPU de sétima geração do componente do Google.

3 nanômetros

O chip é fabricado pela TSMC no processo de 3 nanômetros com mais de 100 bilhões de transistores também possui um sistema de memória redesenhado para manter mais dados próximos aos processadores e reduzir os “gargalos”

Continua após a publicidade

O Maia 200 traz avanços significativos no subsistema de memória, com 216 GB de HBM3e operando a 7 TB por segundo (TB/s) e 272 MB de SRAM integrada ao chip.

Além disso, há uma arquitetura de rede reforçada para que milhares de chips trabalhem juntos de forma coordenada. Neste caso, a Microsoft adotou uma abordagem de dois níveis baseada no protocolo Ethernet padrão.

Cada acelerador oferece 1,4 TB/s de largura de banda dedicada através de 28 conexões de 400 GbE, permitindo operações coletivas previsíveis e de alto desempenho em clusters de até 6.144 aceleradores.

Os três elementos resultam em um processamento de modelos gigantes de linguagem mais rápido, capaz de gerar respostas em segundos em vez de minutos aos usuários.

Continua após a publicidade

Em operação no Azure

Os primeiros sistemas Maia 200 já estão operacionais na região Central dos Estados Unidos do Azure, plataforma de computação em nuvem da companhia. A novidade, conforme informou a Microsoft ao Canaltech, será levada a outras regiões no futuro.

O chip já é utilizado pela equipe Microsoft Superintelligence para geração de dados sintéticos e aprendizado por reforço, além de atender as cargas de trabalho em servidores da empresa.

"O Maia 200 faz parte da nossa infraestrutura de IA heterogênea e atenderá a vários modelos, incluindo os mais recentes modelos GPT-5.2 da OpenAI, proporcionando uma vantagem de desempenho por dólar investido no Microsoft Foundry e no Microsoft 365 Copilot", disse o executivo.

Continua após a publicidade

A Microsoft também anunciou uma prévia do Maia SDK para desenvolvedores, acadêmicos e projetos de código aberto interessados em otimizar modelos para a nova arquitetura.

Leia mais:

VÍDEO: Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?

Continua após a publicidade