Inteligência Artificial vai conduzir a próxima grande revolução computacional

Por Stephanie Kohn | 19 de Fevereiro de 2018 às 15h22
photo_camera YouTube/GKOM TISG

Até pouco tempo, os avanços em computação tendiam a se focar apenas em softwares, enquanto que os esforços voltados para o progresso do hardware pareciam estagnados. Desde que 2018 começou, no entanto, o cenário parece ter mudado. A Semiconductor Research Corporation (SRC) – um consórcio de empresas, escolas e agências governamentais que ajudam a configurar o futuro dos semicondutores – anunciou seis novos centros universitários.

Isso ocorreu após a Google anunciar uma expansão na área de pesquisas em hardware para atacar em Inteligência Artificial. Com a novidade, as principais fabricantes de chip iniciaram um movimento para recuperar território. E conforme as empresas seguem por esse caminho, elas iniciam uma significante transformação desde o nascimento da computação.

A arquitetura atual de Von Neumann mantém as unidades de armazenamento de dados dentro dos computadores separadas das unidades de processamento de dados. O deslocamento de informações para a frente e para trás leva tempo e energia e cria um gargalo no desempenho.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Os circuitos integrados atuais contêm transístores tão pequenos que mais de 100 milhões deles caberia na cabeça de um alfinete. No entanto, o design fundamental de memória e processamento separado permanece e isso coloca um limite no que pode ser alcançado.

Para realmente ganharmos vantagens, engenheiros de hardware estão trabalhando para criar um computador que vá além do design atual de Neumann. E isso seria um baita salto para o futuro. Por décadas, os avanços em computação foram conduzidos para a redução no tamanho dos componentes, guiados pela previsão de Gordon Moore de que o número de transistores em um chip quase dobra a cada dois anos – o que geralmente significava que o poder de processamento fazia o mesmo.

Uma solução poderia ser fundir a memória e as unidades de processamento, mas executar tarefas computacionais dentro de uma unidade de memória é um grande desafio técnico. O AlphaGo, computador da Google que derrotou um campeão mundial no jogo chinês Go, que requer estratégia e intuição humana, mostra um possível caminho a seguir.

Nele, a Google produziu um novo hardware com uma arquitetura que permite que muitas outras operações sejam executadas simultaneamente. Esta abordagem ao processamento paralelo aumenta significativamente a velocidade e a eficiência energética dos cálculos computacionalmente intensivos. Como resultado, o consumo de energia de programas de IA como o AlphaGo melhorou drasticamente. E aumentar a eficiência energética do hardware é essencial para que a IA seja amplamente acessível.

A Google “imitou” os humanos com treinamentos por aprendizagem de máquina, além de redes neurais artificiais. Isso porque o cérebro humano é o processador mais eficiente em termos de energia, por isso é natural para os desenvolvedores de hardware tentar imitá-lo. Uma abordagem chamada computação neuromórfica visa fazer exatamente isso, com tecnologias que procuram simular comunicação e processamento em um sistema nervoso biológico.

Tudo isso ainda são pequenos passos, mas com a SRC encorajando as pesquisas para avanços de hardware, e gigantes como a Google apostando nesse segmento, será possível vermos uma grande revolução nos próximos anos.

Fonte: Nature

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.