Robôs já conseguem perceber quando os humanos precisam de ajuda

Robôs já conseguem perceber quando os humanos precisam de ajuda

Por Gustavo Minari | Editado por Douglas Ciriaco | 13 de Novembro de 2021 às 17h00
Zinkevych_D/Envato

Pesquisadores do Franklin & Marshall College, nos EUA, desenvolveram uma nova técnica de aprendizagem de máquina que permite que os robôs percebam quando os humanos precisam de ajuda. Eles detectam pistas comportamentais e oferecem auxílio de maneira autônoma quando julgam ser necessário.

O sistema foi projetado para ajudar sem interferir na autonomia do usuário, respeitando os limites e as necessidades de cada pessoa. A ideia é que o robô funcione como um auxiliar para as tarefas do dia a dia e não como um substituto que assume o controle em determinadas situações.

“Uma maneira de um robô apoiar a autonomia é garantir que ele encontre um equilíbrio entre ajudar muito e pouco. Ensinamos nossos algoritmos para ajustar e estimar quantidade de ajuda que o usuário precisa, garantindo que esse auxílio seja compatível com a necessidade de cada um”, explica o professor de robótica Jason R. Wilson, autor principal do estudo.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Analisando comportamentos

Quando os humanos precisam de ajuda, eles geralmente pedem socorro de maneira explícita ou transmitindo essa necessidade por meio de comportamentos específicos, como expressões faciais ou linguagem corporal. Algumas pessoas também usam o olhar fixo para dizer que querem auxílio.

“Uma pessoa pode olhar para a tarefa em que está trabalhando e depois olhar para alguém que pode ajudá-la. Esse padrão, conhecido como olhar confirmatório, é usado para solicitar que a outra pessoa olhe para o que está acontecendo e ofereça ajuda instintivamente, sem precisar dizer nada”, afirma Wilson.

Com o método desenvolvido pelos pesquisadores, os robôs conseguem identificar essas características comportamentais em tempo real. Além de processar os padrões no olhar do usuário, os bots também são capazes de analisar a fala das pessoas, detectando diferentes tipos de pistas implícitas na conversa.

“A arquitetura que estamos desenvolvendo reconhece automaticamente a fala do usuário e a analisa para determinar se a pessoa está expressando que precisa de ajuda. Ao mesmo tempo, o sistema também detecta os padrões de olhar, associando essa atitude à necessidade de auxílio”, acrescenta a estudante de engenharia Isabelle Boucher, coautora do estudo.

Vivendo em sociedade

Em vez de considerar as informações sobre a tarefa específica que o usuário está realizando, a nova técnica busca aprimorar as interações sociais entre pessoas e robôs. Isso permite que essa abordagem seja aplicada em vários contextos diferentes do mundo real, com bots treinados para desempenhar qualquer tipo de atividade em ambientes compartilhados com humanos.

Embora o sistema melhore a experiência de interação com robôs, os pesquisadores querem explorar outras formas de comunicação não verbal para aperfeiçoar a capacidade de entendimento das máquinas, aprimorando a identificação das ações implícitas nas atitudes comportamentais.

“Queremos explorar quais pistas sociais permitem que um robô determine quando um usuário precisa de ajuda e a quantidade de auxílio que ele deseja. Uma forma de comunicação não verbal que ainda não usamos é a expressão emocional. Mais especificamente, estamos analisando as expressões faciais para ver quando um usuário se sente frustrado, entediado, engajado ou desafiado”, encerra Wilson.

Fonte: Franklin & Marshall College

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.