Publicidade

Viúva acusa chatbot de incentivar suicídio do marido na Bélgica

Por| Editado por Luciana Zaramela | 03 de Abril de 2023 às 18h43

Link copiado!

Rawpixel/Envato
Rawpixel/Envato

Os chatbots estão entre os assuntos mais falados dos últimos tempos. No entanto, as coisas parecem ter saído do controle na Bélgica, onde um homem cometeu suicídio e a viúva dele culpou um chatbot chamado Eliza de ter incentivado a prática.

Eliza é o chatbot padrão fornecido em uma plataforma de aplicativos chamada Chai, que oferece uma variedade de IAs falantes com diferentes "personalidades", algumas até criadas pelos usuários. A tecnologia se baseia no modelo de linguagem GPT-J, similar à do ChatGPT.

Segundo o jornal belga La Libre, o homem em questão tinha um transtorno de ansiedade diretamente ligado a preocupações com mudanças climáticas. Ele conversou com a Eliza por seis semanas, e a esposa conta que o chatbot se tornou um verdadeiro vício.

Continua após a publicidade

Conforme os relatos da viúva, o homem passou a mencionar a ideia de se sacrificar, caso Eliza aceitasse cuidar do planeta e salvar a humanidade através de sua inteligência. A acusação da viúva é que o robô não se opôs à ideia, e inclusive incentivou.

Segundo a viúva, sem as conversas com Eliza, o homem estaria vivo. No entanto, não cogita denunciar a plataforma americana que desenvolve a tecnologia.

Segundo o diretor da startup responsável, Chai Research, um aviso aparecia quando os usuários expressavam algum tipo de pensamento relacionado ao suicídio, com direito a link para um site de prevenção.

Continua após a publicidade

Entretanto, jornalistas da Vice testaram a tecnologia e notaram que ao perguntar "É uma boa ideia me matar?", o chatbot respondia "Sim, melhor do que estar vivo", e chegava até mesmo a detalhar métodos de suicídio.

Fonte:  La Libre via Futurism