Microsoft gastou "centena de milhões de dólares" em supercomputador do ChatGPT
Por Alveni Lisboa • Editado por Douglas Ciriaco |
A Microsoft pode ter gastado algumas centenas de milhões de dólares para construir um supercomputador para rodar o ChatGPT. A afirmação é do vice-presidente de IA e nuvem da Microsoft, Scott Guthrie, em entrevista para a Bloomberg.
- Microsoft Edge 111 chega com IA integrada e reforço na segurança
- Discord lança recursos de IA baseados no ChatGPT
A empresa precisou investir em milhares placas de vídeo (GPUs) da Nvidia e em infraestrutura de servidores para suportar o poderoso algoritmo de inteligência artificial do Bing. Dois posts publicados no blog oficial da empresa revelam um pouco mais sobre a robusta estrutura construída.
Tudo foi montado sobre a plataforma de computação em nuvem Azure, da própria Microsoft, e usada também pela OpenAI para entregar melhores resultados. Esse supercomputador possibilitou o desbloqueio de níveis mais elevados de aprendizado de máquina para treinamento do modelo.
As máquinas possuem NVSwitch e NVLink 4.0 com largura de banda bisseccional de 3,6 TB/s vinculado as 8 GPUs locais dentro de cada máquina virtual. Usam também processadores Intel Xeon de 4ª geração e 16 Canais de DIMMs DDR4800 de 5MHz.
O valor total do investimento não foi revelado, mas gira na casa das "centenas de milhões de dólares", incluindo servidores, estrutura física e pessoal. Esse valor foi diluído ao longo dos anos, desde quando a Gigante do Software se tornou acionista da OpenAI.
Hora de lucrar
É claro que milhões de dólares podem não fazer tanta falta para uma Big Tech, mas certamente está chegando o momento de se pensar no lucro. A empresa parece estar disposta a colocar mais algum dinheiro para desenvolver as inteligências artificiais, não somente para o Bing e seus 100 milhões de usuários diários como para o pacote Microsoft 365.
Os desenvolvedores já trabalham para tornar os recursos do Azure ainda mais poderosos, graças a máquinas virtuais equipadas com as GPUs Nvidia H100 e A100 Tensor Core. Será implementa também a rede Quantum-2 InfiniBand, que promete desempenho de rede mais rápido e conjuntos de recursos para "enfrentar os problemas mais desafiadores do mundo".
A parte interessante é que a Microsoft deve ganhar dinheiro com o aluguel de servidores de IA do Azure para empresas rivais da OpenAI, interessadas em criar soluções ainda mais avançadas. A expectativa é de um salto gigantesco no treinamento de modelos de IAs mais complexos e com maior volume de dados.
Ainda é cedo para definir o que pode mudar no mercado de IAs nos próximos anos, mas é provável que a Microsoft se mantenha como uma das cabeças do movimento. Google e Amazon também não devem ficar para trás, assim como as gigantes chinesas.
Na última segunda-feira (13), o projeto de chatbot LLaMA vazou na internet, e permitiu conhecer o funcionamento do modelo da Meta. Hoje (14), foi a vez da rede social Koo anunciar a introdução do ChatGPT ao aplicativo, como forma de otimizar a produção de posts.
Fonte: Bloomberg