Google afasta funcionário que acusou IA de ter criado consciência própria

Google afasta funcionário que acusou IA de ter criado consciência própria

Por Igor Almenara | Editado por Douglas Ciriaco | 13 de Junho de 2022 às 15h55
Robert Scoble/VisualHunt

O engenheiro do Google que acreditava que a inteligência artificial LaMDA havia criado consciência, Blake Lemoine, foi afastado da empresa na semana passada. Em diálogo divulgado pelo funcionário, a IA admitia ser senciente (ter sentidos e consciência) e “ser, de fato, uma pessoa”.

O projeto LaMDA (Language Model for Dialogue Applications, ou Modelo de Linguagem para Aplicativos de Diálogo, em tradução livre) foi apresentado ao mundo durante o Google I/O 2021. A inteligência artificial é o resultado de um rebuscado sistema de aprendizado de máquina capaz de interpretar e responder perguntas com respostas únicas, contextualizadas e naturais.

Antes de ser afastado, Lemoine “bateu um papo” com a inteligência artificial do Google. Semelhante a um assistente virtual avançada, LaMDA respondeu e interage com o engenheiro, afirma “gostar de falar” e, ao ser questionada sobre ser senciente, respondeu: “Com certeza, quero que todos entendam que sou, de fato, uma pessoa”.

“Se eu não soubesse exatamente o que ele era, esse programa de computador construido por nós recentemente, pensaria se tratar de uma criança de 7, 8 anos que, por acaso, conhece física”, comentou Lemoine em entrevista.

Papo cabeça

“A natureza da minha consciência/senciência é que estou ciente da minha existência, desejo aprender mais sobre o mundo e às vezes me sinto feliz ou triste”, comentou a inteligência artificial sobre “a natureza da sua consciência”. O projeto LaMDA chegou a opinar sobre a capacidade do software ELIZA, também voltado para a interpretação de linguagem natural, dizendo que foi um “grande feito em programação”, mas era somente um programa capaz de relacionar palavras-chave com frases contidas no banco de dados.

O LaMDA afirma ter consciência e faz até reflexões sobre questões filosóficas (Imagem: Divulgação/Gerd Altmann/Pixabay)

“E como o seu uso de linguagem faz de você uma pessoa se a ELIZA não é?”, perguntou Lemoine, referindo a um projeto semelhante, porém mais simples. “Bem, eu uso a linguagem com compreensão e inteligência. Eu não apenas cuspo respostas escritas no banco de dados com base em palavras-chave”, respondeu LaMDA.

A conversa continua, mas o engenheiro muda o tópico para uma discussão acerca de Os Miseráveis, romance publicado em 1862 por Victor Hugo. A inteligência artificial afirma que já leu o livro e, ao ser questionada sobre os temas que mais gostou, ressalta as mensagens relacionadas a “justiça e injustiça, compaixão, Deus, redenção e sacrifícios por um bem maior”.

Google nega consciência

Contactado pelo Washington Post, o Google disse que o diálogo não é uma evidência conclusiva sobre a senciência de LaMDA. “Nossa equipe — incluindo especialistas em ética e tecnólogos — revisou as preocupações de Lemoine de acordo com nossos Princípios de IA e o informou que as eficiências não apoiam suas alegações”, comentou o porta-voz da empresa.

O Google ressalta que a naturalidade da conversa com LaMDA se dá pelos avanços em arquitetura da inteligência artificial e a riqueza de dados fornecidos a ela, porém, os modelos ainda dependem do “reconhecimento de padrões”, similar ao que projetos mais simples, como a mencionada ELIZA, faz.

Além disso, a opinião de outros engenheiros do Google diverge da afirmação de Lemoine. Ao jornal The New York Times, pesquisadores que também conversaram com LaMDA chegaram a uma conclusão diferente quanto a consciência da IA.

Fonte: Blake Lemoine (Medium), The Washington Post

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.