Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Plataforma de IA corporativa da NVIDIA bate novos recordes de desempenho

Por| 21 de Outubro de 2020 às 14h20

Link copiado!

reprodução
reprodução
Tudo sobre Nvidia

A Nvidia anunciou nesta quarta-feira (21) que a sua plataforma de inteligência artificial (IA) - pertencente a sua divisão corporativa, a Enterprise - bateu novos recordes de desempenho na última rodada de medição do MLPerf. Este benchmark mede o desempenho de hardware, software e serviços que utilizam a IA na indústria.

Usando o MLPerf Inference, a NVIDIA afirma que registrou recordes em todos os testes, em todas as seis áreas de aplicação para data center e sistemas de computação na borda. Os testes vão além dos dois originais para visão computacional, cobrindo também as quatro áreas de IA com crescimento mais rápido: sistemas de recomendação, compreensão de linguagem natural, reconhecimento de fala e imagens médicas.

Novos recordes de desempenho permitem às empresas usar a IA com mais eficiência em suas operações diárias. Por exemplo, as instituições financeiras estão usando IA de conversação para responder às perguntas dos clientes com mais rapidez; os varejistas, para manter as prateleiras abastecidas; e os profissionais de saúde tem usado IA para analisar milhões de imagens médicas para identificar doenças com mais precisão e ajudar a salvar vidas.

Segundo Ian Buck, gerente geral e vice-presidente de computação acelerada da NVIDIA, o uso da IA vem atingindo um ponto crítico, pois cada setor vem buscando as melhores maneiras de aplicar tecnologia para oferecer novos serviços e expandir seus negócios. “O trabalho que fizemos para alcançar esses resultados no MLPerf oferece às empresas um novo nível de desempenho de IA para melhorar nossas vidas diárias", afirmou.

Continua após a publicidade

Crescimento

Os novos recordes anunciados pela NVIDIA Enterprise para inferência de IA aparecem em um momento de crescimento exponencial do setor. Cinco anos atrás, apenas um punhado de empresas líderes de alta tecnologia usavam GPUs para inferência. Agora, com plataformas como as oferecidas pela empresa norte-americana, disponíveis em todos os principais fornecedores de infraestrutura de nuvem e data center, companhias dos mais diversos setores usam soluções de IA para melhorar suas operações de negócios e oferecer serviços adicionais.

A NVIDIA afirma ainda que, pela primeira vez, suas GPUs voltadas ao mercado corporativo oferecem mais capacidade de inferência de IA na nuvem pública do que as CPUs. A capacidade total de computação de inferência de IA em nuvem nas GPUs NVIDIA tem crescido cerca de 10 vezes a cada dois anos.

“Com data centers e nuvens com capacidades cada vez maiores, todas as regiões, incluindo a América Latina, terão mais possibilidades para trabalhar com a inteligência artificial e melhorar os negócios, tendo maior eficiência no custo”, explica Marcio Aguiar, diretor da NVIDIA Enterprise para América Latina.

Continua após a publicidade

Como os testes foram realizados

A NVIDIA Enterprise e seus parceiros enviaram seus resultados do MLPerf 0.7 usando a plataforma de aceleração da NVIDIA, que inclui GPUs de data center da marca, aceleradores de IA na borda e software otimizado da NVIDIA.

A NVIDIA A100, lançada no início deste ano e apresentando a tecnologia de GPU Tensor Cores e Multi-Instance de terceira geração, ampliou sua liderança no teste ResNet-50, superando as CPUs de outras marcas em 30 vezes contra 6 vezes na última rodada. Além disso, a A100 superou as CPUs mais recentes em até 237 vezes no teste de recomendação recém-adicionado para inferência de data center, de acordo com os benchmarks MLPerf Inference 0.7.

Isso significa que um único servidor NVIDIA DGX A100™ pode fornecer o mesmo desempenho que cerca de 1.000 servidores de CPU de soquete duplo. Com isso, as empresas teriam mais eficiência de custo ao levar seus modelos de recomendação de IA da pesquisa à produção.

Continua após a publicidade

Os benchmarks também mostram que a GPU NVIDIA T4 superaram as CPUs em até 28 vezes nos mesmos testes. Alcançar esses resultados exigiu softwares altamente otimizados, incluindo o otimizador de inferência NVIDIA TensorRT™ e o software de servidor de inferência NVIDIA Triton™, ambos disponíveis no NGC™, o catálogo de softwares da NVIDIA.

Além dos envios da própria NVIDIA, 11 parceiros da NVIDIA Enterprise enviaram um total de 1.029 resultados usando GPUs NVIDIA, representando mais de 85% do total de envios nas categorias de data center e na borda.