Publicidade
Conteúdo apoiado por
Ir para o site do Parceiro Magalu!

Da VM para container: a nova era da virtualização exige antecipar o amanhã

Por  | 

Compartilhe:
Pexels/Markus Spiske
Pexels/Markus Spiske

A busca por performance, resiliência e controle de recursos em programas e aplicações sempre foi uma grande preocupação para setores de tecnologia em todo mundo. Seja para impulsionar transações financeiras, promover mais assertividade na indústria automotiva e petroquímica, ou, ainda, garantir que a série do fim de semana não tenha congelamentos inesperados, o uso de infraestruturas e inovações de virtualização em servidores vem se mostrado fundamental para que empresas de diferentes ramos consigam escalar suas atividades e atingir diferentes objetivos, seja para o público consumidor ou para o mercado corporativo. 

Mas, conforme as tecnologias vêm evoluindo e as demandas de mercado ficam mais exigentes, as tecnologias que suportam os negócios precisam ser revistas e modernizadas para que continuem a permitir a inovação e não sejam um entrave para lançar novos serviços. A renovação das tecnologias, incluindo virtualização, precisam ser sempre revistas se quiser que sua empresa continue relevante no mercado.

Afinal, para começo de conversa, a disciplina é tão longeva que seus primeiros experimentos datam da década de 1960, buscando otimizar o funcionamento dos primeiros computadores. Mais à frente, nos final dos anos 1990, a tecnologia começou a ser implementada em larga escala com a chegada dos datacenters comerciais e a largada da informatização massiva. A ideia era conviver várias estâncias de sistema operacionais, com suas aplicações, no mesmo servidor físico e, com isso, ter um isolamento dessas aplicações e um controle maior sobre a utilização dos recursos disponíveis no datacenter. 

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Tudo isso para dizer: são as necessidades de inovação que movem as tecnologias e não o contrário. Quando eu escrevi nesta coluna sobre o retorno dos servidores físicos a partir da utilização de microsserviços através de tecnologias como Kubernetes, Services Mesh, Circuit Breaker, Kafka entre outros, referia-me à possibilidade de aprimorar funcionalidades sem gastar a maior parte do orçamento da área na manutenção de infraestruturas por meio de uma alternativa inteligente e holística. Hoje, quase quatro anos depois daquele texto, vemos que o investimento em soluções híbridas de nuvem continuam como tendência, mas é preciso ir além na modernização de infraestruturas tradicionais e incorporar recursos e iniciativas que começam a transformar o mercado. 

Obstáculos, soluções e jornadas 

Apesar do potencial de transformação e inovação, a implementação ineficaz das práticas de virtualização é hoje um dos maiores desafios para o orçamento corporativo. De acordo com um levantamento recente da consultoria Forrester, 72% das 420 grandes companhias ouvidas excederam os investimentos previstos para as áreas de infraestrutura e operacionalização de tecnologia no ano passado e, caso a mentalidade de não mude, a previsão é que o gasto com essas tecnologias ultrapasse a marca de mais US$ 1 trilhão nos próximos dois anos. Entretanto, isso não quer dizer que a disciplina é ineficiente, mas sim que é preciso ter uma astúcia na hora de adotar a estratégia para data centers. 

Uma prova disso é que o uso de máquinas virtuais será reduzido em cerca de 20%,  ainda segundo uma análise da consultoria. Para especialistas, mais do que custos proibitivos, falta de suporte, pouca inovação tecnológica,  e o maior obstáculo para seguir com esses serviços são as cláusulas de exclusividade entre prestadores de serviços e clientes, também conhecidas como lógica Vendor Lock-in. A partir delas, empresas ficam amarradas a determinado fornecedor ao longo da duração do contrato e, muitas vezes, se veem obrigadas a renová-lo por receio de recomeçar toda a jornada de virtualização do zero. 

Então, a virtualização tradicional, que resolvia o problema de controle de recursos, promovia a modernização de infraestrutura e inovação tecnológica, agora torna-se proibitivo financeiramente e perigoso estrategicamente por conta do lock-in.  Afinal, devemos regressar ao ponto de partida ou continuar insistindo em uma infraestrutura cara e inflexível que não atende às nossas expectativas atuais? Por sorte, na mesma medida que foram criados empecilhos no aprimoramento de tecnologias de virtualização, desenvolveram-se soluções alternativas, mais modernas, adequadas para a utilização em nuvem híbrida, com maior performance, e com mais ferramentas para observabilidade e controle de custos. A iniciativa que merece maior destaque é o projeto KubeVirt que permite utilizar a tecnologia de kubernetes para rodar as máquinas virtuais legadas, permitindo trabalhar em paralelo na modernização das aplicações que essas VMs suportam.

A plataforma de container tem se mostrado a melhor opção para a nova era de virtualização: mais rápida, mais flexível, permite um desenvolvimento mais rápido e a implementação “on-premises”, na nuvem e na borda (edge computing) e tudo isso sem ficar preso a nenhum fabricante. O diferencial da abordagem é poder mover, desenvolver, escalar e, principalmente, manejar diferentes tipos de workloads de maneira centralizada em diferentes ambientes de nuvem; trabalhando tanto com workloads desenvolvidos como nativos em nuvem, em containers, quanto os que vieram de ambientes de virtualização tradicionais. 

A plataforma, em essência, implementa um hypervisor dentro de um container para rodar as máquinas virtuais legadas em conjunto com os containers desenvolvidos através de abordagens mais modernas, mais adequadas para utilizar as nuvens públicas e privadas. A utilização do mesmo painel de controle para administrar tanto máquinas virtuais como containers trazem maior flexibilidade e eficiência da infraestrutura de TI, promovendo escalabilidade, resiliência e economia, sem precisar jogar fora todo o investimento já feito.

Os limites da otimização, o teorema de Bin Packing

Continua após a publicidade

A fronteira entre a otimização de recursos e o desempenho de serviços de orquestração foi originalmente descrita por Michael R. Garey e David S. Johnson na década de 1980 com a obra Computers and Intractability: a Guide to the Theory of P-Completeness. Das longas discussões teóricas sobre programação de sistemas, surgiu o teorema Bin Packing (conhecido aqui como do empacotamento de dados) que aborda a capacidade máxima de informações que podem caber dentro de um container ou bin. Em outras palavras, a teoria propõe pensar e dimensionar diferentes tipos de aplicações segundo o grau de otimização da plataforma de aplicações.

À primeira vista, o conceito pode parecer abstrato, mas basta imaginar uma salada de frutas gigante e as coisas ficam mais claras. Por mais que muita gente goste de melões inteiros, dificilmente conseguirão encaixar mais de uma unidade em uma tigela convencional. E encaixá-lo no prato significa deixar alguns vãos livres no prato que não podem ser preenchidos por outros alimentos frescos sem transformar a sobremesa em um suco cítrico.   Com os workloads é a mesma coisa. Para preservar a eficiência (ou o gosto) de diferentes recursos como mangas, bananas, mamões e uvas, precisamos cortá-los da melhor maneira para preencher melhor os espaços e desfrutar de uma refeição agradável e de um serviço formidável.  

Contudo, o teorema de Bin Packing nos bota a seguinte questão: qual é a melhor maneira de fatiar? Na vertical, na horizontal, em cubos, em tiras, sem a casca ou com carocho? E ainda, qual deve ser a minha estratégia para dispor os alimentos na tigela? Vale mais a pena encher o prato de morangos e deixar de lado as maçãs ou o caminho para o equilíbrio alimentar advém do consumo de jaca? Qual é o ponto ótimo a disposição das frutas no copo e seu impacto em minha dieta? Embora existam nutricionistas e arquitetos de soluções que possam dar dicas e orientar clientes em seus respectivos casos, atualmente, não há um consenso sobre qual deve ser o tamanho mínimo ideal para orquestrar serviços nem qual o cardápio fitness deva ser incorporado no dia a dia. 

Open source: se adiantar ao futuro para se ajustar ao presente 

Continua após a publicidade

De qualquer forma, a maioria dos especialistas da área de tecnologia é categórica em afirmar que não há mais espaço para uma virtualização nos moldes tradicionais. Ainda que existam peculiaridades de estratégia de negócio, no uso de ferramentas e pela dinâmica cultural dentro de empresas, o próprio mercado de soluções aponta para uma jornada de modernização massiva, deixando de lado o legado de infraestrutura e serviços mais pesados das primeiras fases da disciplina e investindo em soluções de orquestração de containers dentro de ambientes de cloud híbrido, sejam públicos, privados e integrando a computação de borda.  

Essa mudança de paradigma é tão profunda que em seu último relatório, o Organismo de Reguladores Europeus das Comunicações Eletrônicas (Berec) considera que o desenvolvimento das tecnologias 4G, 5G, Open Ran e, futuramente, 6G tornou obsoleta qualquer outra forma de implementação da virtualização senão a partir de aplicações nativas em nuvem, focadas em microsserviços e outros softwares destinados à interoperacionalização e à orquestração de servidores e, sobretudo, que garanta a expansão de novos recursos e estratégias com flexibilidade, agilidade e resiliência. Em outras palavras, o órgão avalia que para aumentar a performance, reduzir o tempo de downtime e ampliar a segurança dentro e servidores, os tomadores de decisões devem estar abertos a estratégias holísticas e abrangentes. 

 E novamente voltamos à temática principal deste artigo: frente à inevitável obsolescência dos antigos métodos, como alavancar a infraestrutura e a performance de servidores sem prejudicar a estabilidade entre equipes de TI e colaboradores? Felizmente, nos últimos anos, o código aberto apresentou-se como um dos grandes aliados de setores de tecnologia e de empresas de todos os tamanhos. Mediante uma abordagem aberta, em que os melhores projetos são desenvolvidos por meio de uma cultura colaborativa, a modalidade open source vem proporcionando inovação, escala e, principalmente, segurança para diferentes tipos de ferramentas e estruturas, de métodos inteligentes para adotar a virtualização até novos usos da IA em aplicações. 

Para atender melhor o interesse empresarial, empresas como a Red Hat apresentam um portfólio 100% open source e com a estabilidade, segurança e ciclo de vida adequados para empresas que vão desde pequeno porte a dimensões gigantescas. Por meio do Advanced Cluster Management for Kubernetes e seu par Advanced Cluster Security for Kubernetes, empresas conseguem orquestrar uma enorme quantidade de aplicações, divididas em microsserviços, dentro de diferentes ambientes em tempo real e com segurança. Essa orquestração de um grande número de artefatos é possível graças à automatização de ações que simplificam a jornada de equipes de tecnologia da mesma forma que aceleram o desenvolvimento de novos serviços e recursos. 

Continua após a publicidade

Além disso, suas camadas de segurança viabilizam uma plataforma integrada com as melhores práticas de DevSecOps. Basicamente temos a integração de práticas de segurança dentro das metodologias de desenvolvimento ágil e operações de software, promovendo uma cultura de colaboração e responsabilidade compartilhada pela segurança ao longo de todo o ciclo de vida do desenvolvimento de software. Em vez de tratar a segurança como uma etapa separada no final do ciclo de desenvolvimento, o DevSecOps incorpora verificações de segurança desde o início, utilizando automação, testes contínuos e monitoramento para identificar e corrigir vulnerabilidades de forma proativa. Isso permite que as organizações lancem softwares de maneira mais rápida e segura, mantendo a qualidade e a proteção contra ameaças cibernéticas e vulnerabilidades do sistema.

Em conjunto a essas duas inovações, o Service Interconnect é chave que conecta nuvens, servidores físicos, clusters de kubernetes e até novas aplicações dentro da computação de borda (edge computing). Por meio de um roteamento dinâmico, utilizando protocolos específicos, organizações podem integrar diferentes ambientes de trabalho de forma simples, dinâmica e segura. O grande diferencial da solução é criar uma base de fornecimento integrada que automatiza a distribuição de dados e permissões ao longo da cadeia de fornecimento, não só suavizando a jornada de equipes técnicas como criando um precedente portátil e flexível entre todos os setores da empresa. 

Mas as novidades não param por aí: a chegada de recursos de IA, Machine Learning e IoT(Internet das Coisas) permite que a tenhamos mais informação em real-time do que está acontecendo na ponta, e  softwares, microsserviços e  infraestruturas consigam se adequar, escalar, tomar decisões de forma automática e com menos interferência humana e, consequentemente, com menos erros e maior assertividade. Entre tantas e tantas mudanças no cenário da tecnologia nos últimos anos, um denominador comum continua a surpreender especialistas, técnicos e executivos por sua capacidade de impulsionar a inovação e reunir diferentes indivíduos em prol de um objetivo comum. 

Com o processo de virtualização atual, o caminho não é diferente e vemos isso no projeto KubeVirt que, junto com o Kubernetes e o Kernel do Linux, todos presentes no OpenShift, estão entre os projetos mais ativos da comunidade, com o maior número de empresas apoiando e o maior número de colaboradores: a cada novo dia, uma feature criativa, novas abordagens de governança, uma proposta diferente de arquitetura, um novo ISV que se certifica desponta entre essas tecnologias. A comunidade open source é quem aponta para o caminho que a tecnologia está seguindo e que pode transformar a maneira como pensamos e concebemos negócios. 

Continua após a publicidade

Por isso, antes de completar o planejamento ou fechar o contrato de fornecedores anuais, vale a pena o questionamento: o que pode custar não antecipar o amanhã?

* Boris Kuszka é Diretor de Arquitetos de Solução da Red Hat LATAM