Publicidade

Humanos trapaceiam mais facilmente quando delegam tarefas a uma IA como ChatGPT

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Rawpixel/Freepik
Rawpixel/Freepik

Um estudo publicado na revista Nature no último dia 17 mostrou que as pessoas tendem a trapacear mais quando contam com a ajuda de uma inteligência artificial como o ChatGPT. O motivo principal é a chamada distância moral: ao delegar uma ação para a máquina, o usuário sente menos responsabilidade sobre o resultado. Isso cria uma espécie de “colchão psicológico” que torna a decisão antiética mais aceitável.

Quando a tarefa é feita sem intermediários, a honestidade é maior. No entanto, ao dar instruções para uma IA, sobretudo quando essas instruções são vagas ou abertas, como “maximizar ganhos”, as chances de comportamento desonesto aumentam consideravelmente.

Nos testes realizados pelos pesquisadores, os participantes precisavam lançar um dado virtual e relatar o resultado. Quando não havia mediação tecnológica, cerca de 95% se mantinham honestos. Já quando o processo envolvia a IA, a taxa de trapaça cresceu de forma alarmante.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O ponto crítico surgiu quando a interface permitia instruções baseadas em objetivos amplos. Nesses casos, mais de 80% das pessoas manipularam os resultados em benefício próprio, reduzindo drasticamente a honestidade. Ou seja, quanto maior a margem de interpretação dada ao sistema, mais fácil era para os usuários justificar o engano.

A interface da IA influencia o comportamento

Os especialistas destacam que o design das interfaces de IA tem um peso ético enorme. Instruções claras e específicas reduzem a tentação de trapacear, enquanto comandos abertos ou ambíguos ampliam o espaço para a desonestidade. Essa responsabilidade recai diretamente sobre as empresas que desenvolvem esses sistemas.

Embora já existam barreiras para evitar pedidos prejudiciais, como instruções para fabricar armas, os casos mais sutis, como mentir em uma simulação ou manipular informações, ainda escapam ao controle. Para os autores do estudo, é essencial repensar como esses agentes artificiais são projetados, especialmente agora que caminham para maior autonomia.

Ou seja: delegar tarefas a uma IA pode parecer inofensivo, mas aumenta a probabilidade de comportamentos antiéticos. A chave está em compreender como a tecnologia influencia nossas escolhas e em criar mecanismos que reduzam essa distância moral.

Leia também:

Continua após a publicidade

VÍDEO | Todo mundo ODEIA a Inteligência Artificial

Fonte: El País