Google revela alguns segredos de seus data centers

Por Redação | 22 de Junho de 2015 às 09h52

Os data centers do Google, se combinados, seriam uma das maiores instalações do mundo da tecnologia. E são, também, um dos segredos mais bem guardados da empresa que, agora, começam a ser revelados aos poucos. Foi isso que os presentes no evento Open Network Summit puderam conferir na semana passada, durante uma apresentação de Amin Vahdat, diretor de tecnologias de rede da empresa, que mais tarde foi transformada também em post no blog oficial.

O que temos aqui é um trabalho que vem sendo realizado há mais de dez anos, com o Google e sua equipe de engenheiros trabalhando de forma concentrada e dedicada aos serviços da empresa. As ferramentas de busca e e-mail, por exemplo, estão entre as opções mais utilizadas de toda a rede e, sendo assim, a necessidade de estabilidade e disponibilidade cresce a cada dia. Segundo Vahdat, esse aumento acontece de forma mais veloz que a capacidade de inovação do próprio mercado, o que obrigou a empresa a trabalhar ainda mais por conta própria.

Hoje, os data centers do Google têm capacidade de transmitir 1,13 petabits de dados por segundo, mais de 100 vezes a capacidade da primeira infraestrutura desenvolvida pela empresa. Todos os dispositivos utilizam o mesmo conjunto de chips, regulados por um software que ajusta a capacidade de cada um deles e também faz a hierarquização necessária de acordo com a demanda de cada momento.

Isso, porém, trouxe consigo um outro problema. Como o trabalho de transmissão de dados e armazenamento de arquivos é dividido em diversos servidores, roteadores e switches convencionais não são capazes de lidar com todo esse volume na velocidade desejada. Por isso, o Google teve que construir não apenas uma rede e seus softwares, mas também os dispositivos necessários para operar a partir de hardware disponível no mercado.

Vahdat explica que, desde muito cedo, a necessidade de dados do Google ultrapassava com folga a lei de Moore. Enquanto a teoria dizia que a capacidade de transmissão deveria dobrar a cada 18 meses, a empresa via esse fator crescendo, em alguns períodos, para mais de 50 vezes. Antes, ela trabalhava com o roteador mais potente do mercado e cada vez que um novo dispositivo do tipo era lançado, todo o sistema deveria ser refeito. Não funcionava bem, então a companhia optou pela alternativa otimizada, mas também muito mais trabalhosa.

O engenheiro afirma também que os avanços do Google trouxeram consigo toda a indústria de código aberto, uma vez que, quando a gigante começou a trabalhar em seus servidores, não existiam protocolos adequados para o que estava sendo feito. A partir de componentes e sistemas comuns, a empresa criou seu próprio monstro, chamado Jupiter, que permite alterações e até mesmo o desligamento de certos equipamentos sem que a estrutura seja afetada.

Agora, a ideia é entregar tudo isso para a comunidade de desenvolvedores. Pouco a pouco, afirma Vahdat, o Google vai liberar seus códigos e esquemas de produção de equipamentos para o público, de forma que outras empresas e projetos também possam se beneficiar de seus avanços.

Vale a pena dar uma lida no post original, cheio de informações técnicas e detalhes minuciosos sobre a tecnologia criada pela companhia. Ele ajuda a entender um pouco melhor como um serviço utilizado de maneira cotidiana por milhões de pessoas em todo o mundo funciona por trás dos panos.

Fonte: Google Cloud Platform

Fique por dentro do mundo da tecnologia!

Inscreva-se em nossa newsletter e receba diariamente as notícias por e-mail.