Publicidade

OpenAI já está "traindo" a Microsoft após fim da exclusividade

Por  | 

Compartilhe:
Marcelo Fischer/Canaltech
Marcelo Fischer/Canaltech

A OpenAI anunciou nesta terça-feira (28) a chegada de seus modelos de inteligência artificial à infraestrutura de nuvem da Amazon Web Services (AWS). O movimento ocorre um dia após a criadora do ChatGPT reestruturar sua parceria com a Microsoft, permitindo que a empresa ofereça seus serviços em provedores de nuvem concorrentes.

A parceria estratégica inclui um investimento de US$ 50 bilhões da Amazon na OpenAI, com uma parcela inicial de US$ 15 bilhões. O acordo também amplia em US$ 100 bilhões, ao longo de oito anos, um compromisso anterior firmado entre as empresas para uso de capacidade computacional.

Fim da exclusividade com a Microsoft

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Até o início desta semana, a Microsoft Azure era a fornecedora exclusiva de infraestrutura de nuvem para a OpenAI. Na segunda-feira (27), as duas companhias anunciaram uma alteração no acordo, permitindo que a OpenAI atenda clientes corporativos em qualquer plataforma de nuvem.

Em um memorando interno, a chefe de receita da OpenAI, Denise Dresser, afirmou que a exclusividade com a Microsoft limitava a capacidade da empresa de alcançar os clientes onde eles já operam, destacando que, para muitos, essa plataforma é o Amazon Bedrock.

O CEO da AWS, Matt Garman, reforçou o cenário ao pontuar que o acesso aos modelos da OpenAI era um pedido frequente dos usuários da nuvem da Amazon há bastante tempo.

O que chega ao Amazon Bedrock

Com a nova parceria, clientes da AWS poderão acessar os modelos da OpenAI por meio do Amazon Bedrock, plataforma de desenvolvimento de aplicações de IA generativa corporativa. Os serviços entraram em fase de testes restritos e devem ser liberados para o público geral nas próximas semanas.

A colaboração introduz frentes de atuação específicas para desenvolvedores e empresas na nuvem da Amazon:

  • Modelos no Bedrock: integração das IAs da OpenAI com os controles de segurança, governança de dados e ferramentas operacionais já existentes na AWS;
  • Codex na nuvem: o agente de inteligência artificial voltado para a criação e refatoração de códigos de software ficará disponível para equipes de desenvolvimento diretamente nos ambientes da AWS;
  • Managed Agents: a ferramenta Amazon Bedrock Managed Agents permitirá a criação de agentes de IA personalizados, capazes de reter memória de interações passadas e executar tarefas complexas de forma automatizada.
Continua após a publicidade

Além das integrações imediatas, a OpenAI e a AWS vão desenvolver em conjunto um "Stateful Runtime Environment". Esse ambiente permitirá que os agentes de IA mantenham contexto contínuo em fluxos de trabalho longos, lembrem de trabalhos anteriores e acessem ferramentas e dados integrados. A AWS também será a distribuidora exclusiva em nuvem de terceiros do OpenAI Frontier, plataforma focada na gestão de equipes de agentes de IA.

Foco em infraestrutura

Para sustentar a operação desses novos serviços, a OpenAI utilizará massivamente o hardware da AWS.

A empresa consumirá cerca de 2 gigawatts de capacidade dos processadores Trainium, chips customizados da Amazon desenvolvidos para o treinamento de modelos de IA. O consumo abrangerá as gerações Trainium3 e o futuro Trainium4, com previsão de entrega para 2027.