Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Estudo descobre ponto chave para tornar robôs inteligentes mais persuasivos

Por| Editado por Douglas Ciriaco | 24 de Setembro de 2021 às 17h09

Link copiado!

twenty20photos/Envato
twenty20photos/Envato

Será que as pessoas estão preparadas para receberem ordens de robôs? Um estudo realizado na Universidade de Toronto, no Canadá, revela que tudo depende do comportamento das máquinas. Segundo os pesquisadores, para serem persuasivos, os bots não podem parecer autoritários ou intimidadores.

Os primeiros resultados mostram que os robôs são mais convincentes quando oferecem recompensas em vez de penalidades, sugerindo que as pessoas percebem a recomendação das máquinas como uma opção menos arriscada do que suas próprias estimativas de ganho e perda.

“Quando os robôs se apresentam como agentes sociais semelhantes aos humanos, tendemos a brincar com esse senso de humanidade e a tratá-los como faríamos com uma pessoa”, explica o professor de engenharia mecânica Shane Saunderson, autor principal do estudo. “Se quisermos colocar robôs nessas situações, precisamos entender melhor a psicologia das interações entre humanos e robôs”.

Continua após a publicidade

Autoridade

Para os pesquisadores, é preciso dividir os conceitos de persuasão em duas partes distintas: autoridade formal e autoridade real. Se uma pessoa exerce um papel de chefe, pai ou professor, geralmente esse personagem representa uma autoridade formal. Já a autoridade real tem a ver com o controle de decisões, alternando entre recompensas e punições.

Nos testes realizados durante os estudos, os cientistas usaram um robô humanoide para ajudar voluntários a realizarem uma série de tarefas simples, como memorizar e relembrar itens em sequência. Para alguns participantes, o bot foi apresentado como uma figura formal de autoridade. Para outros, como alguém que os ajudaria a completar as tarefas.

Continua após a publicidade

Primeiramente, o robô ofereceu recompensas financeiras para cada resposta correta, simulando uma autoridade real positiva. Em um segundo momento, o bot passou a penalizar quem fizesse afirmações incorretas, interpretando um agente com autoridade real negativa.

“Geralmente, o robô se mostrava menos persuasivo quando era apresentado como uma figura de autoridade do que quando era introduzido como um ajudante de seus pares. As pessoas não têm relacionamentos e um senso de identidade compartilhada com os robôs. Pode ser difícil para elas passarem a vê-los como uma autoridade legítima”, pondera Saunderson.

Ameaça

Os pesquisadores também perceberam que as pessoas tendem a desobedecer a um robô autoritário quando se sentem ameaçadas por ele. Outro dado interessante é que essa aversão aos bots autoritários mostrou-se mais acentuada nos voluntários do sexo masculino, reforçando o sentimento de ameaça entre esses participantes.

Continua após a publicidade

De acordo com os cientistas, os comportamentos sociais de um robô humanoide são essenciais para a sua aceitação. Além disso, o uso e a confiança nesse tipo de tecnologia depende da forma como essa interação é desenvolvida em uma sociedade, que ainda não se acostumou com máquinas dando ordens.

“Essa pesquisa sugere que os robôs enfrentam mais barreiras para uma persuasão bem-sucedida do que os humanos. Se eles pretendem assumir esses novos papéis em nossa sociedade, seus designers terão que estar atentos a isso e encontrar maneiras de criar experiências positivas, com novas estratégias de comportamento”, encerra o professor Shane Saunderson.

Fonte: University of Toronto