Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

"Mochila inteligente” usa IA da Intel para guiar deficientes visuais nas ruas

Por| 24 de Março de 2021 às 20h30

Link copiado!

Intel
Intel

A Organização Mundial da Saúde (OMS) estima que há cerca de 285 milhões de deficientes visuais em todo o mundo. E os avanços da inteligência artificial (IA), visão computacional e reconhecimento de objetos pode ajudar bastante a transformar o cotidiano dessas pessoas mais seguro, especialmente quando falamos em sistemas de assistência visual para navegação, que ainda são bastante limitados. Eis que a ideia de um pesquisador surge com uma opção que pode mudar esse cenário.

Embora já tenhamos uma certa evolução em acessibilidade para deficientes visuais, como smartphones assistidos por voz baseados em GPS e bengalas inteligentes, os sistemas ainda carecem de percepção de profundidade necessária que as pessoas possam se deslocar de forma independente e segura. Jagadish K. Mahedran, desenvolvedor de IA do Instituto de Inteligência Artificial na Universidade da Geórgia, nos Estados Unidos, encontrou uma forma aproveitar a potência dos processadores da Intel para criar uma solução para isso, na forma de uma “mochila inteligente”.

"Ano passado encontrei um amigo que é deficiente visual e me dei conta de que já ensinei robôs a ler, mas que ainda existem muitas pessoas que não enxergam e precisam de ajuda. Foi o que me levou a criar o sistema de assistência visual usando o Kit de Inteligência Artificial com Profundidade da OpenCV (OAK-D), desenvolvido pela Intel", explica Mahendran, em comunicado emitido pela própria Intel.

Continua após a publicidade

A “mochila inteligente” ajuda na identificação de desafios comuns, como sinais de trânsito, obstáculos suspensos, faixas de pedestres, objetos em movimento e mudanças de elevação por meio da execução de um dispositivo interativo com baixo consumo de energia. Ou seja, ela se torna uma “radar” portátil de alta precisão e leitura de profundidade em tempo real.

Como funciona?

O sistema todo fica dentro de uma pequena mochila, que vem com um colete para posicionar os componentes na posição ideal para leitura dos arredores. A unidade de computação, semelhante a um laptop, fica nas costas, dentro do compartimento, enquanto a câmera fica escondida na parte frontal do traje, com uma bateria autonomia aproximada de oito horas dentro de uma pochete.

Continua após a publicidade

Uma câmera de IA espacial OAK-D da Luxonis pode ser afixada tanto no colete quanto na pochete e conectada à unidade de computação dentro da mochila. Três orifícios minúsculos no traje servem como janelas de visualização para o sensor, preso na parte interna.

A unidade OAK-D é um dispositivo de IA versátil e potente, executado na VPU Intel Movidius e no kit de ferramentas Intel Distribution of OpenVINO para inferência de IA de ponta on-chip. Assim, ela pode executar redes neurais avançadas, enquanto oferece funções de visão computacional acelerada, um mapa de profundidade do seu par estéreo em tempo real, assim como informações de cor a partir da câmera 4K.

Para completar, o usuário conta com um fone de ouvido Bluetooth, que envia as orientações da IA e também recebe os comandos por voz. Assim, de acordo com a movimentação, o sistema informa sobre os obstáculos à frente, incluindo placas, galhos de árvores e outros transeuntes. Os testes também destacam o alerta sobre faixas de pedestres, guias, escadas e entradas de edifícios. E tudo isso seria realizado com um objeto bastante discreto para ser usado em público.

Continua após a publicidade

Por enquanto, ainda não há uma previsão de chegada ao mercado como um produto para o consumidor final, até porque o projeto ainda passa por testes e mais pesquisa. Mas os idealizadores já pensam abrir o código do sistema, para que ele possa ser fabricado em breve por quaisquer interessados.