Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

O que é data center?

Por| Editado por Jones Oliveira | 04 de Maio de 2024 às 16h35

Link copiado!

ODATA / Divulgação
ODATA / Divulgação

Data centers são locais físicos que acomodam um ou vários servidores, bem como todas as tecnologias e instalações necessárias para seu funcionamento, da instalação elétrica e sistemas de arrefecimento, aos componentes de rede, segurança, comunicação e distribuição dos serviços para a internet. 

Para entender melhor como funcionam esses locais, o Canaltech visitou um dos data centers da ODATA em Hortolândia, interior de São Paulo. Ricardo Berbel, Engenheiro e Gerente de Operações e Manutenção da ODATA, nos guiou pela visita e explicou um pouco mais sobre esse elemento indispensável na infraestrutura do mundo contemporâneo 100% conectado.

A ODATA foi uma das primeiras empresas especializadas em data centers 100% brasileira e de iniciativa privada, sem parcerias estatais, e em apenas 3 anos após sua fundação iniciou atividades em outros países da América Latina após parcerias com empresas estrangeiras.

Continua após a publicidade
“A ODATA foi fundada em 2015, [tendo como principal] acionista o grupo Pátria, [especializado] em investimentos na área de infraestrutura, tem concessão de rodovia, usinas de geração de energia. Em 2016 deu-se o início da construção do primeiro data center SP01, em Santana de Parnaíba, com operação iniciada em 2017. Após uma parceria em 2018 com a CyrusOne, a ODATA expandiu operações para a América Latina, com a fundação da planta BG01 em Bogotá, na Colômbia”, explica Ricardo Berbel sobre a origem da ODATA.

O que é um data center?

Em termos simples, um data center é o prédio que acomoda todos os equipamentos necessários para o funcionamento de um servidor, independentemente de sua aplicação, seja para operações em nuvem, sistemas remotos, treinamento de IA e assim por diante.

Pensando em uma analogia mais palpável, é como se fosse um prédio comercial, com várias salas e andares, que são alugados por empresas para a instalação de seus escritórios. Da mesma forma que esses prédios oferecem serviços essenciais, como energia, água, ar condicionado, portaria com segurança, entre outros, os data centers também dispõem de serviços similares acordados em contrato.

A principal diferença entre um servidor alocado em um data center para um privado é que, além de “alugar” um espaço físico, todos os serviços essenciais serão fornecidos ininterruptamente. Para isso, instalações como as da ODATA dispõem de uma série de medidas de segurança e qualidade, garantindo que os servidores acomodados operem 24/7 de forma segura e estável.

Evolução dos data centers

Continua após a publicidade

Os data centers originais, na prática, se inspiraram nos primeiros supercomputadores, como o ENIAC, no qual os componentes eram tão grandes que exigiam salas inteiras com centenas de cabos de alimentação, interconectores e sistemas de refrigeração de ambiente para operar. É como se uma sala fosse o equivalente ao que temos hoje nos gabinetes de PCs, por exemplo.

Com a miniaturização dos chips, computadores passaram a ser adotados em escala muito maior, aumentando rapidamente a infraestrutura de TI das empresas. Como a maioria desses recursos era utilizada em serviços sensíveis, como infraestrutura e aplicações militares, foi necessário estabelecer guias e protocolos de segurança para regular o acesso, tanto aos equipamentos quanto aos dados ali processados ou armazenados.

Em paralelo, as tecnologias e protocolos de comunicação de rede também evoluíram proporcionalmente ao restante dos setores da computação. Isso permitiu criar as ferramentas de segurança necessárias por meio de centrais internas com centenas de computadores, utilizados, justamente, para gerenciar esses acessos e recursos.

Continua após a publicidade

Tanto por isso, os primeiros data centers eram totalmente privados, e cada empresa, centro de pesquisa ou universidade tinha o seu, voltado para atender apenas suas próprias demandas. Conforme os sistemas de rede avançaram, aos poucos as universidades e centros de pesquisa começaram a interligar seus data centers entre si, para acelerar a comunicação e estudos conduzidos.

Inicialmente em conexões ponto a ponto, o próximo passo foi a implantação de centrais externas de compartilhamento de dados, em um sistema precursor ao que hoje entendemos por nuvem, que deu origem às centrais de rede e à internet como um todo.

Como é formado um data center?

Pensando na analogia do “gabinete”, o data center é composto por quatro tipos principais de infraestruturas: infraestrutura de suporte; de computação, de armazenamento e de redes. É importante ressaltar que a ODATA trabalha com um projeto de alimentação que conta com estações próprias de geração de energia limpa, zerando a pegada energética das operações no Brasil.

Continua após a publicidade
“Vamos pensar na origem da necessidade. Então o cliente tem um determinada software, uma aplicação (...) que intermedia a venda de alimentos, por exemplo. Ele vai implantar esse software em um hardware, que pode ser um servidor de tamanhos infinitamente variados, e para que o programa dele chegue até as pessoas a gente precisa de algum meio de conexão, fibra, rádio, qualquer um que seja. Onde entra o data center nisso? Para ele garantir que os serviços dele estarão disponíveis e interruptamente. Aí que está a grande chave do data center”.

Infraestrutura de suporte 

Segundo Ricardo Berbel, a infraestrutura de suporte é tão ou mais importante para um data center do que as demais infraestruturas. Isso porque os componentes computacionais e de armazenamento, por exemplo, variam muito conforme a demanda e tipo de operação de cada cliente alocado, enquanto a infraestrutura de suporte é a base para a segurança e o bom — e ininterrupto — funcionamento da planta inteira, e não apenas de serviços pontuais.

Continua após a publicidade
  • Subestações de energia: O primeiro elemento crucial de todo data center é o seu sistema de alimentação de energia. Para garantir um abastecimento estável e constante, as plantas de operação contam com subestações de distribuição próprias, que recebem a transmissão da concessionária e direcionam para as PDUs (Power Delivery Unit / Unidades de Distribuição de Energia).
  • PDUs: Os PDUs são grandes gabinetes de distribuição de energia, parecidos com grandes armários instalados na parede externa à sala de servidores. Na prática, eles são enormes fontes que funcionam com fonte para os racks, com um quadro de distribuição e que modulam a tensão de entrada de 480 V para 415 V, padrão mais adotado no Brasil
"Esse 'carinha' aqui é o que a gente chama de PDU, é o último estágio aqui ponto de vista de energia elétrica para chegar nos racks. Então é daqui literalmente para os racks, é o último ponto da instalação. Ele é um quadro de distribuição e um transformador, e nesse projeto específico ele tem uma tensão de 480 V, não muito típica nem em instalação industrial, ela é bem específica para data center, e o transformador reduz apra 415 V."

Mesmo com subestações elétricas dedicadas, a alimentação ainda vem das concessionárias, uma vez que os polos de autoprodução são descentralizados e apenas injetam energia na rede nacional de geração, criando o saldo que será consumido pelas plantas de data centers. Sendo assim, o sistema de abastecimento ainda está sujeito a eventuais falhas e desastres naturais, mas as operações sensíveis não podem ser interrompidas.

Continua após a publicidade
  • Salas elétricas ou UPS ("Nobreaks"):  Por essa razão, ainda como parte da infraestrutura de suporte, adjacente a cada sala de servidor estão as Salas Elétricas, ou UPS  (Uninterrupted Power Supply). Elas operam como um 'nobreak' gigante composto por um corredor com estantes de baterias, um de transformadores, um com quadros de distribuição e uma sala anexa com um enorme gerador a diesel com sistema de partida automática, que inicia a operação em microssegundos após identificação falha na alimentação externa.
  • Equipamentos de arrefecimento: Enquanto as salas elétricas utilizam sistemas simples de ar condicionado para garantir temperaturas ótimas, os servidores precisam de um arrefecimento mais robusto. Para isso, os data centers contam com enormes chillers, que funcionam com o mesmo princípio dos water coolers de PC, mas em escala muito maior. 
"Depois que um daqueles sprinklers é rompido, o sistema conta um tempo para mais um detector de fumaça [agir] e deixa entrar água no sistema. Isso porque no caso de um acidente, por exemplo, bateu uma escada no bico, ele não começa a dispersar água imediatamente para evitar danificar os servidores sem uma ameaça real."
  • Sistemas de segurança: Apesar de toda a estrutura do data center ser impressionante, o quesito que mais chamou a atenção durante nossa visita foi a segurança. A partir da portaria, literalmente toda porta da instalação conta com uma tranca dedicada para bloquear o acesso, sendo preciso um cartão magnético cadastrado individualmente para ter acesso. Como os data centers trabalham com diversos serviços extremamente sensíveis e sigilosos, o controle é necessário, tanto para evitar que pessoas de fora tenham acesso direto às instalações físicas, quanto para identificar exatamente quem esteve em cada parte do prédio. Inclusive, por essa mesma razão, não tivemos acesso direto as salas de servidores.
  • Sistemas de combate/prevenção de desastres: Outro ponto importante da infraestrutura de suporte é o seu sistema de combate e prevenção de desastres. Diferente de extintores convencionais que já têm água diretamente na tubulação, os sprinklers em data centers possuem ar em um primeiro momento, que só recebe água após uma segunda checagem de sensores.
Chillers funcionam como water coolers gigantes para garantir arrefecimento ideal para servidores em data centers. (Imagem: ODATA / Divulgação)
Continua após a publicidade
  • Redundância: Algo que também é um diferencial importantíssimo em data centers é que, também como parte dos sistemas de prevenção a desastres, todas as operações utilizam sistemas de redundância de dados. A forma como essa redundância é realizada depende do tipo de servidor e da preferência de cada cliente, mas ao menos o backup regular dos dados e sistemas robustos de RAID são procedimentos padrão.

Infraestrutura de computação 

Passando para a infraestrutura de computação, em si, os servidores em data centers se dividem em três tipos principais: servidores em racks; servidores blade e mainframes.

Continua após a publicidade
"Esse tipo de servidor utiliza designs padrão, sendo possível apenas remover um gabinete de um dos racks e substituí-lo por outro, facilitando sua manutenção, escalabilidade e a até a migração e redesignação de uma sala de servidores. Caso um cliente encerre seu contrato, não é preciso reprojetar a sala e trocar os racks, basta encaixar os servidores do novo cliente."
  • Servidores de rack:  são grandes armários com diversos gabinetes, cada um deles independente, com todos os seus componentes, como placa-mãe, CPU, GPU, fonte. Geralmente eles são associados via interconectores de rede dedicados criando clusters, fazendo com que todos os gabinetes de um rack operem em conjuto. 
  • Servidores blade: são um pouco diferentes, trazendo diversas placas associadas em um único gabinete de servidor. A ideia é entregar o máximo de desempenho ocupando o menor espaço e consumindo o mínimo de energia possível, resultando em uma densidade computacional altíssima. Por serem tão compactos e, geralmente projetados sob medida, eles utilizam gabinetes proprietários e são bem mais caros que os racks.
  • Mainframes: são computadores de altíssimo porte, projetados para processamento de dados de milhares de clientes e usuários ao mesmo tempo. Eles são extremamente úteis em serviços essenciais e de infraestrutura, como setores militares, centros de pesquisa, aviação civil, sistemas de saúde e serviços públicos e bancários.

Infraestrutura de armazenamento

A infraestrutura de armazenamento dos data centers pode ser classificada em quatro tipos principais, mas que não necessariamente excludentes, podendo ser associadas dependendo do serviço.

Continua após a publicidade
  • DAS - Direct Attached Storage: Este é o sistema de armazenamento local mais básico, com arranjos de discos e/ou SSDs instalados diretamente nos servidores, da mesma forma que utilizamos em PCs convencionais. Apesar de ser geralmente mais rápido e com menor latência, o armazenamento DAS acaba sendo mais restrito, por estar limitado às portas e barramentos físicos de cada servidor.
  • NAS - Network Attached Storage: O sistema de NAS, ou Armazenamento Acoplado via Rede, utilizado principalmente em serviços que exigem menos processamento direto de dados. Apesar de ser um armazenamento em rede, ele ainda é local e opera como um servidor paralelo, independente, com um subsistema próprio. Os NAS se comunicam com os servidores principais via switches, roteadores e outros interconectores de rede, e podem ser acessados por todos os dispositivos conectados àquela rede local, com restrições estabelecidas por grupos de clientes. De maneira geral, NAS são utilizados como grandes repositórios centralizados para que todos os dados estejam acessíveis de terminais locais, mas apenas internamente, sem passar por armazenamentos remotos, garantindo maior segurança de dados.
  • SAN - Storage Area Network: As Redes de Área de Armazenamento, como o próprio nome já sugere, são redes de alta velocidade com clusters de diversos HDDs e/ou SSD, que pode ser acessada remotamente. Geralmente elas são as principais soluções serviços de armazenamento em nuvem. Contudo, dependendo do tipo de aplicação, elas podem ser configuradas para acesso em blocos, onde conjuntos de dados são alocados separadamente com identificadores exclusivos. Isso permite que, em uma mesma SAN, diferentes serviços tenham acesso apenas a dados compartimentalizados. Além de agilizar o acesso a bancos de dados e aplicações específicas, configurar SANs para armazenamento em blocos evita que uma eventual intrusão comprometa todos os dados de um serviço simultaneamente.

Infraestrutura de redes 

A infraestrutura de redes vai desde os interconectores dos servidores em racks, até a comunicação externa. Para isso, os data centers utilizam armários em paralelo com centenas de roteadores, para o gerenciamento dos dados, e switches corporativos, para a distribuição, com larguras de banda altíssimas e conexão via fibra óptica.

Continua após a publicidade

Além disso, a segurança dessa informação é assegurada por diversas camadas de firewall, em diferentes níveis de operação, para garantir que os dados transmitidos internamente, e enviados para os clientes externos, estejam sempre seguros e encriptados.

Tipos de data center

Entre os principais tipos de data centers estão os de serviços gerenciados, de colocation, em nuvem e corporativos, cada um projetado para cargas de trabalho e necessidades específicas.

  • Data centers corporativos: data centers proprietários em locais físicos da própria empresa ou instituição. O princípio é o mesmo dos demais data centers, mas todo o terreno, infraestrutura, controle de acesso, equipamentos e assim por diante pertencem e são administrados pela corporação em questão. Apesar de implicar em um custo de implantação e, principalmente, de operação muito mais elevados, eles garantem que nenhuma informação processada transite para fora das redes internas e seguras. 
  • Data centers de serviços gerenciados:  os clientes podem ou não serem donos de dos equipamentos dos servidores, como os racks ou servidores blades, mas os equipamentos são implantados em instalações próprias. A diferença é que toda a gestão, manutenção, gerenciamento de rede, segurança e suporte fica a encargo da prestadora de serviços de data center.
  • Data centers de colocation:  as instalações físicas e infraestruturas de rede, segurança, e dependendo do caso de armazenamento, são todas da provedora, apenas com a infraestrutura computacional pertencendo ao cliente. A empresa contratante aluga uma - ou mais - salas de servidores de racks ou blade daquele data center para acomodar seus gabinetes, e operar seus serviços. Especificamente a manutenção nesses casos varia conforme o tipo de contrato. É possível tanto o cliente deixar todo gerenciamento e manutenção a encargo da provedora, ou optar por ter equipes específicas (internas ou contratadas), que são as únicas com acesso direto aos componentes e sistemas.
  • Data centers em nuvem:  mais conhecidos atualmente, são os serviços como Amazon Web Services e Microsoft Azure, nos quais os clientes não possuem qualquer equipamento ou instalação física de seus servidores. Os clientes apenas pagam para ter suas aplicações instaladas nesses servidores remotos, com todo a operação sendo realizada via interfaces web seguras, com controle de acesso por VPNs e outras camadas de proteção. Apesar de serem menos seguros que os outros tipos, os data centers em nuvem são os com menor custo de operação, além de serem ideais para empresas que não dispõe de recursos ou espaço físico para implantar infraestruturas próprias.

Qual é a importância dos data centers?

O mundo moderno está cada vez mais conectado e digitalizado, e a chegada da era da Inteligência Artificial irá apenas acentuar a demanda, já colossal, por soluções de computação em altíssima escala. Em compensação, salvo pelas Big Techs, com orçamentos altíssimos para investir em infraestrutura, a maioria esmagadora das empresas não dispõem do espaço físico e capital necessários para acompanhar essas demandas com soluções próprias.

Optar por um data center de colocation ou em nuvem, no lugar de uma infraestrutura própria, ainda permite que uma micro ou pequena empresa se preocupe exclusivamente com as camadas superiores de seus serviços e operações. Toda a parte de segurança, suporte, manutenção dos servidores fica a encargo da operadora de data center, reduzindo drasticamente o investimento necessário para oferecer serviços ininterruptos.

O próximo passo de praticamente todos os setores da indústria envolve algum tipo de utilização de IA, cujos equipamentos são extremamente caros. Sendo assim, contratar soluções externas é uma saída muito mais economicamente viável e de rápida implantação para não ficar defasado, permitindo que as operações em TI sejam escaladas acompanhando a demanda real das empresas, com proporção e custo de operação dimensionados para cada cliente.