Em 10 anos, os computadores poderão ler a mente humana

Por Luciana Zaramela | 15.12.2016 às 20:13

A tecnologia não para. Desde o início dos anos 40, quando o primeiro computador foi construído, a evolução do setor e a sede por constante inovação conseguiram fazer com que em apenas seis décadas e meia as máquinas se desenvolvessem a ponto de terem sua própria inteligência. O que antes demandava apenas especialistas para manipular uma máquina agora se popularizou de tal forma que chega a amedrontar a espécie humana.

Estamos na era da realidade virtual, dos comandos por voz e gestos e da internet das coisas. Conseguimos explorar universos totalmente alternativos em 3D com a ajuda de um meio digital, de maneira semelhante como fazemos com objetos de verdade. Esse mundo imersivo, com a ajuda da internet, tem um grande potencial de ampliação pela frente, e agora, o próximo passo, para alguns pesquisadores, é fazer com que a interação entre máquinas e humanos alcance um novo patamar.

Alguns estudiosos da área já estão monitorando a atividade cerebral das pessoas em tempo real para que, assim, consigam descobrir alguns padrões de pensamento humano. A ideia é que, no futuro, seja possível usar computadores para detectar o que passa na mente humana. É isso que pretende fazer Frances Van Scoy, pesquisadora e professora de ciências da computação da Universidade de West Virginia.

Um pouco de história

Antigamente, quando os desenvolvedores queriam que o computador "aprendesse" alguma informação nova, eles usavam uma linguagem de programação quase que totalmente baseada em números. Os algoritmos eram transferidos à máquina por meio de cartões perfurados, que representavam expressões matemáticas puramente lógicas. Mas no fim dos anos 1960, os primeiros avanços na interação homem-máquina já começaram a despontar: graças aos plotters mecânicos, os programadores conseguiam "dizer" aos computadores (ou robôs) alguns comandos, como segurar uma caneta e movê-la em uma direção específica. Tudo, claro, era muito simples e os cálculos não eram tão complexos.

Eniac, o primeiro computador da história, começou a ser construído em 1943 (Foto: Divulgação)

Já na década de 1980 os computadores passaram a contar com interfaces gráficas com janelas, ícones e cursor do mouse. Isso ampliou e muito a interação das máquinas com os humanos, já que era possível ver o resultado de desenhos e gráficos na tela, em tempo real. Criar imagens ficou muito mais fácil — tanto que os computadores atraíram vários designers e cartunistas, que optaram por deixar de lado papel e caneta para usar os pixels. O mesmo aconteceu na indústria cinematográfica: surgiam os primeiros efeitos especiais computadorizados.

Macintosh, de 1984: primeiro computador pessoal com interface gráfica e multimídia (vídeo, imagem e som)

As ferramentas foram evoluindo e ficando cada vez mais simples e disponíveis para as massas. No início dos anos 1990, a biblioteca Open GL permitia que programadores desenvolvessem modelos digitais em 2D e 3D, podendo adicionar cores, texturas, movimento e interação.

Hoje em dia os monitores e telas 3D já são populares e ficaram muito menores e mais baratos do que nos anos anteriores. Basta ter à mão um smartphone e ver quanta tecnologia embarcada se tem ali. É o caso também das interfaces com o usuário, que estão mais poderosas a cada ano. As telas touch reconhecem movimentos de vários dedos, além da pressão exercida por eles. Já os sensores de movimento usados no Nintendo Wii e no Kinect (Xbox 360/One) conseguem reconhecer como o corpo humano se move no espaço. Já chegamos, inclusive, a iniciar pesquisas em rastreamento ocular, uma nova tecnologia que capta os movimentos dos olhos do usuário para transformá-los em instruções e realizar comandos.

Kinect, sensor de movimento para Xbox 360/One, lançado em 2010

O próximo passo

A pesquisadora Frances Van Scoy está trabalhando para desenvolver um novo sistema de integração entre computador e usuário, desenvolvendo o que ela chama de "computação na velocidade do pensamento". A ideia é usar projetos de baixo custo e código aberto que permitam às pessoas criar headsets neural capazes de capturar a atividade cerebral de maneira não-invasiva.

Frances Van Scoy

Ela acredita que daqui a 10 ou 15 anos estaremos colhendo os primeiros frutos dessa nova tecnologia. Esse é o tempo necessário para que os novos hardware e software neurais se amadureçam e captem informações importantes, a ponto de conseguir "traduzir" o que uma pessoa está pensando. O objetivo é que, na próxima década, o novo sistema já "leia o pensamento" de um usuário quando ele imaginar um objeto ou um substantivo qualquer, por exemplo, através da captação de suas atividades neuronais.

Headset com sensores neurais (foto ilustrativa)

Com mais sofisticação, no futuro um escritor, por exemplo, poderia usar um destes headsets para imaginar os personagens, o ambiente e suas interações. O computador, nesse caso, iria escrever o primeiro rascunho de um conto, seja em arquivo de texto ou mesmo em vídeo, mostrando as cenas e os diálogos imaginados na cabeça do escritor. Será o início de uma nova era, cheia de possibilidades inéditas.

Vuk Pavlovic, da empresa de pesquisas True Impact, demonstrando um headset com sensores neurais e óculos que rastreiam movimentos oculares. Há mais pesquisadores trabalhando nessa linha (Chris So / Toronto Star).

Caso venha a se tornar realidade, a tecnologia abre portas para inúmeras possibilidades, que vão desde a escrita de artigos, passando pelos games e terminando na medicina ou ciência espacial. Os desenvolvedores ganhariam muito em praticidade e riqueza de detalhes para suas novas aplicações com a ajuda de um headset neural, de acordo com a pesquisadora.

Van Scoy espera que software e hardware de captura de movimento tornem-se disponíveis e baratos em poucos anos, pois assim, dariam a oportunidade para que pesquisadores como ela desenvolvessem novas tecnologias sem gastar muito dinheiro. "Eu imagino novas formas de contar histórias digitais. Pense em um grupo de amigos que atuariam em uma história, usando avatares de seus próprios corpos em 3D para atuar na cena, em um mundo sintético. Eles poderiam usar várias câmeras de realidade virtual para 'filmar' a ação, de múltiplas perspectivas, e assim, construir um vídeo".

A pesquisadora revela que com criatividade e tecnologia disponível, o resultados podem ser muito mais complexos, todos concebidos na mente dos criadores e transformados em experiências virtuais. Seria uma nova era para os historiadores recriarem os ambientes antigos e sobrepor, em realidade aumentada, visões do mundo real sobre o cenário, por exemplo. O mesmo aconteceria com as maquetes das crianças na escola: tudo seria transformado com a ajuda da imaginação e da realidade virtual ou aumentada. Por isso ela se empenha tanto em suas pesquisas, e garante: na próxima década, veremos os primeiros resultados de uma nova era, a da computação que lê nossos pensamentos.

Via Futurism