"Mochila inteligente” usa IA da Intel para guiar deficientes visuais nas ruas
Por Claudio Yuge | 24 de Março de 2021 às 20h30
A Organização Mundial da Saúde (OMS) estima que há cerca de 285 milhões de deficientes visuais em todo o mundo. E os avanços da inteligência artificial (IA), visão computacional e reconhecimento de objetos pode ajudar bastante a transformar o cotidiano dessas pessoas mais seguro, especialmente quando falamos em sistemas de assistência visual para navegação, que ainda são bastante limitados. Eis que a ideia de um pesquisador surge com uma opção que pode mudar esse cenário.
- 5 aplicativos que podem ajudar deficientes visuais
- Facebook melhora IA para ampliar a acessibilidade para deficientes visuais
- 10 recursos de acessibilidade do Android para você usar
Embora já tenhamos uma certa evolução em acessibilidade para deficientes visuais, como smartphones assistidos por voz baseados em GPS e bengalas inteligentes, os sistemas ainda carecem de percepção de profundidade necessária que as pessoas possam se deslocar de forma independente e segura. Jagadish K. Mahedran, desenvolvedor de IA do Instituto de Inteligência Artificial na Universidade da Geórgia, nos Estados Unidos, encontrou uma forma aproveitar a potência dos processadores da Intel para criar uma solução para isso, na forma de uma “mochila inteligente”.
"Ano passado encontrei um amigo que é deficiente visual e me dei conta de que já ensinei robôs a ler, mas que ainda existem muitas pessoas que não enxergam e precisam de ajuda. Foi o que me levou a criar o sistema de assistência visual usando o Kit de Inteligência Artificial com Profundidade da OpenCV (OAK-D), desenvolvido pela Intel", explica Mahendran, em comunicado emitido pela própria Intel.
A “mochila inteligente” ajuda na identificação de desafios comuns, como sinais de trânsito, obstáculos suspensos, faixas de pedestres, objetos em movimento e mudanças de elevação por meio da execução de um dispositivo interativo com baixo consumo de energia. Ou seja, ela se torna uma “radar” portátil de alta precisão e leitura de profundidade em tempo real.
Como funciona?
O sistema todo fica dentro de uma pequena mochila, que vem com um colete para posicionar os componentes na posição ideal para leitura dos arredores. A unidade de computação, semelhante a um laptop, fica nas costas, dentro do compartimento, enquanto a câmera fica escondida na parte frontal do traje, com uma bateria autonomia aproximada de oito horas dentro de uma pochete.
Uma câmera de IA espacial OAK-D da Luxonis pode ser afixada tanto no colete quanto na pochete e conectada à unidade de computação dentro da mochila. Três orifícios minúsculos no traje servem como janelas de visualização para o sensor, preso na parte interna.
A unidade OAK-D é um dispositivo de IA versátil e potente, executado na VPU Intel Movidius e no kit de ferramentas Intel Distribution of OpenVINO para inferência de IA de ponta on-chip. Assim, ela pode executar redes neurais avançadas, enquanto oferece funções de visão computacional acelerada, um mapa de profundidade do seu par estéreo em tempo real, assim como informações de cor a partir da câmera 4K.
Para completar, o usuário conta com um fone de ouvido Bluetooth, que envia as orientações da IA e também recebe os comandos por voz. Assim, de acordo com a movimentação, o sistema informa sobre os obstáculos à frente, incluindo placas, galhos de árvores e outros transeuntes. Os testes também destacam o alerta sobre faixas de pedestres, guias, escadas e entradas de edifícios. E tudo isso seria realizado com um objeto bastante discreto para ser usado em público.
Por enquanto, ainda não há uma previsão de chegada ao mercado como um produto para o consumidor final, até porque o projeto ainda passa por testes e mais pesquisa. Mas os idealizadores já pensam abrir o código do sistema, para que ele possa ser fabricado em breve por quaisquer interessados.