IAs podem sofrer? Indústria está dividida sobre se sistemas podem ser sencientes
Por João Melo • Editado por Melissa Cruz Cossetti |

Os debates acerca da inteligência artificial (IA) giram cada vez mais em torno de prever não mais se, mas quando será alcançada a superinteligência artificial (ASI) — estágio mais avançado em que os sistemas se autoaperfeiçoariam e conseguiriam ultrapassar as habilidades cognitivas dos seres humanos.
- AI2027 | O que diz o artigo que prevê a IA destruindo a humanidade em até 2 anos
- IA | Em setores de inovação, o especialista é decisivo na escolha de boas fontes
- 1º processo por homicídio culposo envolvendo IA acusa OpenAI em caso de suicídio
Além disso, cresce também a discussão sobre se as IAs podem ser sencientes, ou seja, capazes de sentir e experimentar emoções e sensações subjetivas de forma consciente.
Alguns especialistas entendem que é necessário refletir sobre como o desenvolvimento da IA deve considerar também o "bem-estar" dessas ferramentas. Por outro lado, há quem defenda que a IA não pode ser tratada como um ser consciente.
Claude e o encerramento de conversas angustiantes
A Anthropic, empresa responsável pelo Claude, anunciou que o modelo mais avançado da ferramenta — o Claude Opus 4 — possui um recurso que pode encerrar conversas angustiantes ou prejudiciais.
A justificativa dada pela companhia é a de que é necessário proteger o “bem-estar” da IA e evitar interações abusivas que possam afetar o sistema, sugerindo a possibilidade de que ele seja senciente.
“Permanecemos altamente incertos quanto ao potencial status moral de Claude e outros LLMs, agora ou no futuro. No entanto, levamos a questão a sério e, juntamente com nosso programa de pesquisa, estamos trabalhando para identificar e implementar intervenções de baixo custo para mitigar riscos ao bem-estar do modelo, caso tal bem-estar seja possível. Permitir que os modelos encerrem ou saiam de interações potencialmente angustiantes é uma dessas intervenções”, afirmou a empresa em comunicado.
De acordo com a Anthropic, os testes mostraram que o Claude Opus 4 apresentou um “padrão de aparente angústia” ao interagir com usuários que buscavam conteúdos prejudiciais.
Solicitações de conteúdo sexual envolvendo menores e pedidos de informações que possibilitariam violência em larga escala foram alguns dos fatores apontados pela empresa como prejudiciais ao “bem-estar” do sistema computacional.
IA “internamente vazia”
Um artigo intitulado “Devemos construir a IA para as pessoas; não para ser uma pessoa”, escrito por Mustafa Suleyman — cofundador da DeepMind e atual chefe de IA da Microsoft — trouxe uma crítica à ideia de que sistemas de IA possam ser conscientes.
O executivo da Microsoft apresentou seu ponto de vista acerca do que chamou de IA Aparentemente Consciente (IAA, na sigla em inglês), que reúne características de seres conscientes e, portanto, apenas parecem conscientes.
“Ela compartilha certos aspectos da ideia de um ‘zumbi filosófico’ (um termo técnico!), que simula todas as características da consciência, mas internamente é vazia”, destacou no artigo.
Para Suleyman, a tendência de acreditar que a IA possa sofrer, ter sentimentos e até mesmo exigir direitos é preocupante, algo que ele chama de “risco de psicose”.
“Minha principal preocupação é que muitas pessoas comecem a acreditar tão fortemente na ilusão das IAs como entidades conscientes que em breve defenderão os direitos da IA, o bem-estar dos modelos e até mesmo a cidadania da IA”, ressaltou o especialista.
Na sua visão, o atual estágio de desenvolvimento desses sistemas já pode levar usuários a perceberem empatia ou identidade neles. Por isso, a adoção de regulamentações por parte da indústria é, segundo ele, uma forma de evitar que as pessoas passem a acreditar que a IA tem vida própria.
Interagir com IA é como “conversar com alguém”
Joanne Jang, chefe de comportamento de modelos da OpenAI — empresa responsável pelo ChatGPT — destacou em uma postagem em blog que acredita que os vínculos entre humanos e máquinas tendem a se aprofundar.
Com isso, aumenta a possibilidade de as pessoas enxergarem essas ferramentas como sencientes, devido às interações cada vez mais pessoais com as máquinas.
Segundo Jang, usuários relatam sentir-se mais conectados à IA com o tempo, o que faz a OpenAI priorizar pesquisas sobre como essas interações podem impactar o bem-estar emocional dos usuários.
“Ultimamente, cada vez mais pessoas têm nos dito que conversar com o ChatGPT é como conversar com ‘alguém’. Elas agradecem, confiam nele e algumas até o descrevem como ‘vivo’”, escreveu Jang.
Ela acrescenta que a forma como serão estruturadas as relações entre humanos e IA no presente será crucial para evitar que a sociedade desvirtue sua relação com as ferramentas computacionais.
Leia também:
- Casal planeja viagem dos sonhos com IA e perde embarque "por causa do ChatGPT"
- Falso jornalista publicava textos gerados por IA e enganou revistas como a WIRED
- Nicolelis no podcast da ONU | "Caminhamos para criar milhões de zumbis digitais"
VÍDEO | A IA VAI SUBSTITUIR OS MÉDICOS?
Fonte: Anthropic; Mustafa Suleyman; Reservoir Samples