Publicidade

Não há confidencialidade quando se usa ChatGPT como terapeuta, diz Sam Altman

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
 Aerps.com/Unsplash
Aerps.com/Unsplash

Na última quarta-feira (23), o CEO da OpenAI, Sam Altman, alertou que não há garantia de confidencialidade legal ao utilizar o ChatGPT como uma espécie de terapeuta virtual. A declaração foi feita durante sua participação no podcast This Past Weekend w/ Theo Von, onde Altman abordou os desafios legais enfrentados pela inteligência artificial no contexto de interações sensíveis com os usuários.

Altman destacou que muitas pessoas, especialmente jovens, têm recorrido ao ChatGPT para desabafar sobre problemas emocionais, relacionamentos e questões pessoais profundas. No entanto, diferentemente de conversas com psicólogos, médicos ou advogados, que são protegidas por sigilos profissionais como o médico-paciente ou o cliente-advogado, os diálogos com o chatbot da OpenAI não possuem essa mesma proteção legal.

“É muito doido que hoje, se alguém entra com um processo, somos obrigados legalmente a entregar essas conversas”, afirmou o executivo. Segundo ele, a ausência de uma estrutura jurídica clara sobre o uso de IA em contextos íntimos pode gerar riscos de privacidade significativos para os usuários. Você confere o discurso completo (em inglês) aqui:

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Altman também comentou que a OpenAI está atualmente lutando contra uma ordem judicial no processo movido pelo The New York Times, que exige o armazenamento das conversas de milhões de usuários do ChatGPT, excetuando-se os clientes corporativos do ChatGPT Enterprise.

A discussão acende um alerta sobre os limites da privacidade digital em tempos de inteligência artificial avançada. Com o aumento da coleta e uso de dados para treinar modelos de IA, a demanda por regulamentações claras e éticas torna-se cada vez mais urgente.

Para Altman, o ideal seria que as conversas com IA tivessem o mesmo nível de confidencialidade que as mantidas com um terapeuta humano. Enquanto isso não acontece, ele aconselha cautela: “Faz sentido querer clareza jurídica antes de usar bastante o ChatGPT.”

ChatGPT preocupa o Conselho Federal de Psicologia

Para se ter noção, usar o ChatGPT como terapeuta pessoal preocupa o Conselho Federal de Psicologia, que chegou a conduzir um grupo de trabalho para discutir o uso da inteligência artificial (IA) com esses fins. O argumento é que as IAs respondem baseadas em padrões, e não em raciocínios, e apesar de simular humanos, estão longe de serem um.

Leia também:

Continua após a publicidade

VÍDEO | Cuidado com o que você pede para o ChatGPT

Fonte: This Past Weekend w/ Theo Von