Publicidade

Neurociência pode tornar robôs emocionalmente inteligentes, revela pesquisa

Por| Editado por Douglas Ciriaco | 05 de Maio de 2021 às 13h00

Link copiado!

Reprodução/Columbia Pictures
Reprodução/Columbia Pictures

Robôs emocionalmente inteligentes como o androide Andrew, do filme O Homem Bicentenário, de 1999, levantam questões éticas sobre até que ponto as máquinas podem aprender a reconhecer emoções humanas. Esse dilema começou a ser solucionado por pesquisadores do Instituto Avançado de Ciência e Tecnologia, no Japão.

Atualmente, as máquinas são capazes de se comunicar com humanos por meio da fala, com instruções lógicas predeterminadas que limitam essa interação e não permitem um entrosamento maior entre pessoas e máquinas.

Com esse novo estudo, os cientistas se concentraram nas chamadas “emoções dimensionais” que formam uma transição emocional gradual capaz de ser interpretada através da fala. "A emoção dimensional contínua pode ajudar um robô a capturar a dinâmica do tempo do estado emocional de um locutor e, consequentemente, ajustar sua forma de interação e conteúdo em tempo real", explica o professor Masashi Unoki.

Continua após a publicidade

São tantas emoções

Emoções primitivas, como felicidade, tristeza ou raiva, fazem parte da existência humana e constituem as bases de toda nossa comunicação. Mas para os robôs é difícil registrar, processar e agir conforme esses comportamentos tão enraizados em nossa espécie.

Estudos anteriores mostram que um modelo de percepção auditiva, que simula o funcionamento do ouvido humano, pode gerar algumas pistas sobre a modulação temporal e capturar a dinâmica das emoções. Mas a complexidade desses modelos impede que eles sejam aplicados em cérebros robóticos.

Continua após a publicidade

Já a pesquisa feita pela equipe do professor Unoki baseia-se na neurociência cognitiva, sugerindo que nosso cérebro é capaz de formar múltiplas representações neurais com graus diferentes de sons espectrais. Foi a partir dessa descoberta que surgiu um novo recurso chamado de "cocleograma filtrado por modulação de resolução múltipla'' (MMCG).

Esse sistema combina quatro cocleogramas filtrados por modulação com diferentes resoluções para conseguir decifrar a frequência temporal e contextual durante uma conversa. Uma arquitetura de rede neural paralela chamada de memória longa de curto prazo (LSTM) analisa os dados obtidos na fala espontânea.

Emocionante

Continua após a publicidade

Os pesquisadores descobriram que o MMCG conseguiu reconhecer emoções com um desempenho muito melhor do que os recursos tradicionais baseados na acústica da fala. A rede paralela neural também foi capaz de prever com maior precisão as emoções bidimensionais que são importantes para estabelecer uma comunicação emocional entre máquinas e seres humanos.

“Nosso próximo objetivo é analisar a robustez das fontes de ruído ambiental e investigar nosso recurso para outras tarefas, como reconhecimento de emoção categórica, separação de fala e detecção de atividade de voz para propor um modelo mais coerente de interpretação emocional através da fala”, completa o professor Unoki.

A ideia é que, no futuro, os robôs sejam capazes de diferenciar nuances emocionais durante um diálogo e, a partir disso, tomar decisões baseadas em um contexto não verbal que vai muito além das palavras, sotaques e idiomas do humano que está do outro lado da conversa.

Você acredita que, em breve, os robôs vão conseguir interpretar a raiva ou a felicidade contidas em interações do dia a dia com os seres humanos? Isso pode ser bom ou ruim? Deixe a sua opinião.

Continua após a publicidade

Fonte: Science Direct