Projeto December | IA simula gente morta e gera controvérsia
Por Fabrício Calixto • Editado por Douglas Ciriaco |
Parece que a necromancia, o ritual de falar com os mortos, chegou a um patamar inédito graças à evolução da inteligência artificial. Isso se deve à criação do programador Jason Rohrer, que deu vida a um chatbot sinistro, para dizer o mínimo, intitulado Project December (ou Projeto Dezembro, em livre tradução). Baseado nos modelos de linguagem GPT-2 e GPT-3 da OpenAI, o robô usa um algoritmo gerador de textos capaz de ser treinado pelo usuário para dar respostas de forma personalizada.
- 8 coisas absurdas que o ChatGPT faz, mas não deveria
- 6 vezes em que o ChatGPT foi bizarramente assustador
Necromante digital
A estrutura conversacional do Projeto December pode simular conversas com qualquer pessoa — incluindo quem já não está mais entre nós. Essa habilidade se deve ao seu método de aprendizado de máquina somado à coleta de dados, práticas que o treinam para imitar o jeito de falar da pessoa desejada. A IA generativa também pode aprender particularidades bem detalhadas de alguém, como seu nível de gramática e o modo de conduzir uma conversa.
Além disso, a criação de Jason Rohrer acompanha algumas personalidades predefinidas, algo que serve como teste para quem tem dúvidas quanto ao poderio da tecnologia.
Experiências mistas
A capacidade do Projeto December de simular trejeitos, personalidades e outros aspectos de uma pessoa falecida é considerada assustadora por parte de quem o testou. Isso não é incomum no segmento, considerando que até mesmo o próprio ChatGPT já foi flagrado tomando rumos sem pé nem cabeça em suas conversas ou mesmo cogitado como possível "ponte" para o Além.
Alguns usuários revelaram que viram o bot “suplicar pela sua vida”, desejando algo como “ressuscitar” ou se materializar no mundo real, entre outras interpretações para lá de bizarras.
Por outro lado, alguns testadores tiveram uma experiência mais positiva com a fúnebre tecnologia, alegando que sentiram “um alívio para a sua dor” ao simular conversas com os entes queridos que se já foram.
Fato é que "Projeto Dezembro" é controverso e pode ser estopim para pautas éticas envolvendo privacidade de dados, manipulação emocional e responsabilidade sobre o luto das pessoas.
É possível olhar para o chatbot baseado no modelo de inteligência artificial da OpenAI como uma forma de terapia, de arte ou de entretenimento. Porém, não há como abandonar um olhar mais crítico, que interpreta a tecnologia como uma violação da dignidade humana e até mesmo uma ilusão que pode tomar rumos perigosos.
Imagine uma pessoa que não consegue lidar com o luto da perda de uma pessoa querida podendo alimentar essa angústia "ressuscitando" o falecido por meio de um chatbot.
Chatbot tem preço
O Projeto December não é gratuito e funciona no modelo de créditos, mais ou menos no mesmo estilo de cobrança do Midjourney e do DALL-E. Sendo assim, mil créditos de uso saem por U$ 5 (algo em torno de R$ 25, em conversão direta). É possível fazer o pagamento com cartão de crédito de diversas bandeiras, como Visa, Mastercard, PayPal e Apple Pay.
As conversas oferecem um tempo limitado para você “conversar” com alguém que não está mais no nosso plano. Quem tiver interesse (e coragem) em testar o Projeto December, é só acessar a página da IA projectdecember.net. No entanto, tome cuidado ao usar a tecnologia, pois você estará batendo papo com um robô, e não com quem infelizmente já se foi.
Fonte: FT