Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

É possível mensurar a informação armazenada no universo? Para este físico, sim!

Por| Editado por Patricia Gnipper | 20 de Outubro de 2021 às 20h30

Link copiado!

Pablo Carlos Budassi
Pablo Carlos Budassi

O universo é muito estranho, se pararmos para pensar em alguns dos princípios mais fundamentais da física, como a incerteza do estado das partículas até as observarmos, ou a gravidade ser uma distorção no espaço-tempo. Por isso, não surpreende que algumas hipóteses "malucas" publicadas pelos cientistas faça um certo sentido. E a nova ideia de que a informação é o quinto estado da matéria é um desses casos.

Um físico chamado Melvin Vopson, da Universidade de Portsmouth, no Reino Unido, decidiu quantificar a informação estimando quanta informação é armazenada em uma única partícula elementar, como um elétron, e multiplicando o resultado na quantidade estimada de partículas no universo observável — só de alguém pensar em fazer algo assim já é impressionante, ainda mais levando a ideia adiante.

Há muito tempo os cientistas suspeitam de uma conexão entre a informação e o universo físico, com vários experimentos e paradoxos usados ​​para explorar como a informação pode ser codificada na matéria física. E quando se fala de informação nesse contexto, trata-se de uma espécie de bit armazenado nas partículas, determinando suas propriedades como spin, massa e carga elétrica. De fato, algumas ideias associam a entropia de um sistema com as informações de suas partículas.

Continua após a publicidade

Também podemos pensar na informação como uma redução na incerteza, já que, quando se trata das partículas, não podemos determinar muitas coisas como velocidade (ou momento linear) e posição ao mesmo tempo. Não podemos dizer que o gato de Schrödinger está vivo ou morto até que se abra a caixa, mas, uma vez aberta, uma informação será estabelecida e a incerteza é reduzida. Em outra analogia, o texto em uma mensagem reduz a incerteza sobre o que se pretende informar; quanto mais texto (informação), menor a incerteza.

Essas ideias estão enraizadas na teoria da informação, proposta por Claude Shannon em 1948. Nessa hipótese (um tanto complexa, mas importante para entender a informação como estado físico), a entropia de uma variável aleatória é o nível médio de "informação", "surpresa" ou "incerteza" sobre os resultados possíveis da variável. O exemplo clássico é um jogo de cara ou coroa. Ao arremessar a moeda (variável aleatória), sabemos que haverá um resultado, que pode ser considerado como um bit de informação.

Se o resultado for cara, tem valor p, enquanto a coroa tem valor 1 - p. Se não houver razão para esperar um resultado específico, a surpresa tem valor p = 1/2. Nesse caso, independente do resultado, temos uma entropia de um bit. Mas se a moeda estiver "viciada" e você já souber o resultado, o valor é p = 0 ou p = 1, e a entropia é zero bits porque não há nenhuma incerteza, nenhuma liberdade de escolha, nenhuma informação foi adicionada ao sistema. 

Continua após a publicidade

Calma, se está confuso, é porque entropia não é um assunto fácil, em nenhuma de suas "vertentes". A entropia termodinâmica (mais antiga que a teoria da informação) foi introduzida para caracterizar o grau de desordem de um sistema. Já a entropia da informação, segundo Shannon, refere-se à incerteza da distribuição de probabilidade. Na incerteza probabilística, são conhecidos os estados possíveis e a distribuição de probabilidade para eles, mas não é possível determinar com tanta certeza qual irá ocorrer. Quanto mais “espalhada“ a distribuição de probabilidade, maior incerteza irá refletir.

Bem, todo esse passeio pela entropia da informação serve apenas para mostrar como sistemas quânticos poderiam carregar esses "bits", que os físicos teóricos chamam de informação. Mas voltando ao artigo de Vopson, os cálculos da entropia de informação foram aplicados à massa, carga e spin de prótons, nêutrons, quarks e elétrons, para chegar à sua estimativa de quanta informação eles carregam. Então, usando estimativas de quantas dessas partículas existem no universo, ele chegou a um número impressionante (mas não tanto): algo em torno de 6 seguido por 80 zeros, em bits de informação.

Esse número é menor que as estimativas anteriores, mas há um motivo para isso. É que Vopson decidiu restringir seu cálculo apenas às partes observáveis da matéria, excluindo assim antipartículas e coisas como bósons leves e quarks de duração curtíssima que decaem em outras partículas em frações de segundos. Isso porque tais partículas não armazenam informações, apenas as transferem (no caso dos bósons) ou porque duram tão pouco tempo que a observação só é possível por meio de condições experimentais criadas artificialmente (no caso de quarks instáveis). “Portanto, sua participação no universo observável é desprezível e, por extrapolação, sua capacidade de registrar informações também é desprezível", escreveu o físico.

Continua após a publicidade

Assim como algumas outras hipóteses "malucas" (mas que fazem um certo sentido), o trabalho de Vopson se baseia no princípio de que a informação é física e registrada por sistemas físicos, "e todos os sistemas físicos podem registrar informações", disse. Ele já havia proposto que a informação pode ser um quinto estado da matéria, ao lado de sólido, líquido, gás e plasma, e sugeriu até mesmo que a informação pode ser a matéria escura.

A pesquisa foi publicada no AIP Advances.

Fonte: AIP Advances, Science Alert