Microsoft imagina um futuro de PCs sem teclado nem mouse

Por Redação | 27.06.2016 às 12:56
photo_camera Reprodução/YouTube

Como você interage com os objetos virtuais reproduzidos dentro da tela do seu computador? A resposta mais óbvia é o uso de periféricos como mouse e teclado (ou outros itens afins), pois, afinal, temos poucas opções além destas. Contudo, no que depender deste conceito desenvolvido pela Microsoft, o futuro pode aposentar esta dupla que acompanha os PCs desde quase sempre.

Desenvolvido por pesquisadores em laboratórios do Reino Unido e de Israel, o método é simples em sua proposta: permitir que a interação entre uma pessoa e um computador se dê de forma muito mais direta e precisa, sem a necessidade de um mediador físico, tal qual um mouse ou um teclado. O trio da Microsoft busca desenvolver uma forma a partir da qual o reconhecimento dos movimentos da sua mão seja o ponto central da interação com um computador.

“Como interagimos com as coisas no mundo real? Bem, nós as pegamos, as tocamos com os dedos, as manipulamos”, afirma Jamie Shotton, chefe da pesquisa desenvolvida pelo laboratório da Microsoft dentro da Universidade de Cambridge, no Reino Unido. “Nós deveríamos ser capazes de fazer exatamente a mesma coisa com objetos virtuais. Deveríamos ser capazes de alcançá-los e tocá-los”, prossegue o cientista.

Apesar de ainda muito incipiente, os engenheiros e cientistas da computação envolvidos neste tipo de pesquisa acreditam que não estamos muito longe de oferecer mecanismos de reconhecimento corporal ao grande público, algo que atualmente já acontece com reconhecimento de voz e de rostos, recursos muito comuns na atualidade.

A base do mundo será, cada vez mais, a interconexão entre várias máquinas a serviço das pessoas — a Internet das Coisas está aí. Diante deste contexto, faz muito sentido utilizar ferramentas que se apoiam em vários de nossos sentidos, garantindo uma amplitude de recursos manipuláveis de forma sempre mais acessível para qualquer um. É basicamente esta a ideia de futuro pensada dentro dos laboratórios da Microsoft.

Precisão e discrição

A equipe de visão computacional da Microsoft, liderada pelo pesquisador Andrew Fitzgibbon, no Reino Unido, desenvolveu o projeto Handpose, um sistema de rastreamento detalhado de movimento das mãos que foi apresentado recentemente em duas conferências acadêmicas. O desempenho deste novo sistema oferece reconhecimento preciso, suave e em tempo real dos movimentos realizados pelas mãos, podendo em breve ser embarcado em algum gadget convencional.

Obviamente, o método ainda está em fase de desenvolvimento e tem desempenho bastante limitado. Mesmo assim, não deixa de ser surpreendente vê-lo em prática (confira no vídeo abaixo) reproduzindo no mundo virtual quase que instantaneamente os movimentos feitos no mundo real. E o mais interessante é que o sistema pode tanto utilizar um headset de realidade virtual quanto ser reproduzido em uma tela comum.

Experiência sensorial

Segundo os pesquisadores envolvidos no projeto Handpose, a ausência do toque real não é um problema na experimentação da manipulação virtual de objetos. Isso especialmente por causa da maneira com a qual o mundo virtual foi desenvolvido, utilizando controles finos o suficiente para que a sensação de tocar os próprios dedos dê a sensação de que o usuário está tocando algo de fato.

Além disso, os cientistas garantem que a utilização de objetos mais macios no mundo virtual também melhora a experiência — em suma, tocar algo muito firme no virtual e nada no real não causa uma boa experiência sensorial. Outros fatores que contribuem para melhorar o panorama geral deste tipo de interação é a combinação de outros sentidos, como audição e visão, algo especialmente importante quando tudo funciona em tempo real.

Comunicação por gestos

E se você pudesse usar apenas as suas mãos para desligar uma chamada no Skype, bloquear o seu computador ou então fechar janelas abertas em seu desktop? Este também é um dos desafios do chamado projeto Prague, outra novidade do gênero do reconhecimento corporal desenvolvida pela Microsoft em seu Laboratório de Tecnologias Avançadas, em Israel.

O foco do projeto é fornecer recursos a desenvolvedores para que eles implementem reconhecimentos de gestos em seus aplicativos, permitindo uma nova maneira de os usuários realizarem tarefas básicas e que antes seriam possíveis apenas por meio do uso do teclado ou do mouse. Este sistema se baseia no uso de aprendizado de máquina e conta ainda com uma câmera tridimensional a fim de captar e reconhecer todas as ações realizadas diante de sua lente.

Esta tecnologia utiliza centenas de microunidades de inteligência artificial, com cada uma delas responsável por analisar um aspecto único da mão do usuário. É exatamente este amontoado de detalhes que torna a análise gestual bastante precisa e, no fim das contas, reconhece não somente os gestos, mas a intenção deles.

Enfim, as novidades da Microsoft para o mundo do reconhecimento dos gestos pode ter aplicações diretas em games e na execução de aplicativos, mas também em tarefas básicas da “vida real” diante de um computador, aposta Adi Diamant, diretor do laboratório da Microsoft em Israel. Quem sabe a experiência da companhia com o Kinect também não possa contribuir para expandir este tipo de funcionalidade para mais dispositivos.

Fonte: Microsoft