Neurociência pode tornar robôs emocionalmente inteligentes, revela pesquisa

Por Gustavo Minari | Editado por Douglas Ciriaco | 05 de Maio de 2021 às 13h00
Reprodução/Columbia Pictures

Robôs emocionalmente inteligentes como o androide Andrew, do filme O Homem Bicentenário, de 1999, levantam questões éticas sobre até que ponto as máquinas podem aprender a reconhecer emoções humanas. Esse dilema começou a ser solucionado por pesquisadores do Instituto Avançado de Ciência e Tecnologia, no Japão.

Atualmente, as máquinas são capazes de se comunicar com humanos por meio da fala, com instruções lógicas predeterminadas que limitam essa interação e não permitem um entrosamento maior entre pessoas e máquinas.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Com esse novo estudo, os cientistas se concentraram nas chamadas “emoções dimensionais” que formam uma transição emocional gradual capaz de ser interpretada através da fala. "A emoção dimensional contínua pode ajudar um robô a capturar a dinâmica do tempo do estado emocional de um locutor e, consequentemente, ajustar sua forma de interação e conteúdo em tempo real", explica o professor Masashi Unoki.

São tantas emoções

Emoções primitivas, como felicidade, tristeza ou raiva, fazem parte da existência humana e constituem as bases de toda nossa comunicação. Mas para os robôs é difícil registrar, processar e agir conforme esses comportamentos tão enraizados em nossa espécie.

Estudos anteriores mostram que um modelo de percepção auditiva, que simula o funcionamento do ouvido humano, pode gerar algumas pistas sobre a modulação temporal e capturar a dinâmica das emoções. Mas a complexidade desses modelos impede que eles sejam aplicados em cérebros robóticos.

Modelo do MMCG usado na interpretação das emoções na fala (Imagem: Reprodução/Science Direct)

Já a pesquisa feita pela equipe do professor Unoki baseia-se na neurociência cognitiva, sugerindo que nosso cérebro é capaz de formar múltiplas representações neurais com graus diferentes de sons espectrais. Foi a partir dessa descoberta que surgiu um novo recurso chamado de "cocleograma filtrado por modulação de resolução múltipla'' (MMCG).

Esse sistema combina quatro cocleogramas filtrados por modulação com diferentes resoluções para conseguir decifrar a frequência temporal e contextual durante uma conversa. Uma arquitetura de rede neural paralela chamada de memória longa de curto prazo (LSTM) analisa os dados obtidos na fala espontânea.

Rede paralela neural analisa a emoções contidas na fala espontânea (Imagem: Reprodução/Science Direct)

Emocionante

Os pesquisadores descobriram que o MMCG conseguiu reconhecer emoções com um desempenho muito melhor do que os recursos tradicionais baseados na acústica da fala. A rede paralela neural também foi capaz de prever com maior precisão as emoções bidimensionais que são importantes para estabelecer uma comunicação emocional entre máquinas e seres humanos.

“Nosso próximo objetivo é analisar a robustez das fontes de ruído ambiental e investigar nosso recurso para outras tarefas, como reconhecimento de emoção categórica, separação de fala e detecção de atividade de voz para propor um modelo mais coerente de interpretação emocional através da fala”, completa o professor Unoki.

A ideia é que, no futuro, os robôs sejam capazes de diferenciar nuances emocionais durante um diálogo e, a partir disso, tomar decisões baseadas em um contexto não verbal que vai muito além das palavras, sotaques e idiomas do humano que está do outro lado da conversa.

Você acredita que, em breve, os robôs vão conseguir interpretar a raiva ou a felicidade contidas em interações do dia a dia com os seres humanos? Isso pode ser bom ou ruim? Deixe a sua opinião.

Fonte: Science Direct

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.