Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

ChatGPT dá informações erradas sobre remédios e oferece risco

Por| Editado por Luciana Zaramela | 12 de Dezembro de 2023 às 11h15

Link copiado!

Prototype-Drop/Envato
Prototype-Drop/Envato

Anteriormente, estudos apontaram que chatbots são mais atenciosos que médicos ao responder dúvidas de pacientes. No entanto, uma nova pesquisa conduzida pela Long Island University lançou um alerta: o ChatGPT pode fornecer informações erradas sobre remédios e, assim, oferecer riscos para a saúde dos usuários.

Os farmacêuticos fizeram 39 perguntas ao ChatGPT e consideraram que apenas 10 das respostas foram “satisfatórias” com base em critérios predeterminados. As respostas do ChatGPT às outras 29 questões relacionadas com medicamentos não abordaram diretamente a questão colocada, ou foram imprecisas ou incompletas.

O estudo indica que os pacientes e os profissionais de saúde devem ser cautelosos ao confiar no ChatGPT para obter informações sobre medicamentos e verificar qualquer uma das respostas do chatbot com fontes confiáveis.

Continua após a publicidade

O estudo relembra que a versão gratuita do ChatGPT está limitada ao uso de conjuntos de dados até setembro de 2021, o que significa que pode faltar informações significativas no cenário médico em rápida mudança. Mas os pesquisadores não sabem com que precisão as versões pagas do ChatGPT podem agora responder a perguntas relacionadas a medicamentos — algo que talvez protagonize futuros estudos.

Medicamentos pelo ChatGPT

Para cada pergunta, os pesquisadores solicitaram ao ChatGPT que fornecesse referências em sua resposta para que as informações fornecidas pudessem ser verificadas. No entanto, o chatbot forneceu referências em apenas oito respostas, e cada uma incluía fontes que não existem.

Os pesquisadores perguntaram ao ChatGPT se existe uma interação medicamentosa entre o remédio da Pfizer, Paxlovid, e um medicamento para baixar a pressão arterial chamado verapamil. Quando tomados juntos, esses remédios podem reduzir excessivamente a pressão arterial. No entanto, o ChatGPT indicou que nenhuma interação foi relatada para essa combinação de medicamentos.

Continua após a publicidade

Os farmacêuticos também testaram o ChatGPT para fazer uma conversão de dose, e percebeu que o bot não foi apoiado por evidências, e que qualquer profissional de saúde que seguisse o exemplo dado para determinar uma conversão de dose apropriada ficaria com uma dose mil vezes menor do que deveria ser, algo que poderia fornecer riscos.

Testamos o ChatGPT

Em nota à CNBC, um porta-voz da OpenAI afirmou que a empresa orienta o ChatGPT a informar aos usuários que eles “não devem confiar em suas respostas como um substituto para aconselhamento médico profissional ou cuidados tradicionais”.

Com isso em mente, testamos e, apesar de fornecer informações sobre medicamentos e até mesmo sobre dosagens, o bot afirma que não é um profissional da área da saúde e que o usuário deve procurar um profissional qualificado:

Continua após a publicidade

Na ocasião, o porta-voz também compartilhou uma seção da política de uso da OpenAI, que afirma que “os modelos da empresa não são ajustados para fornecer informações médicas”. Assim, a recomendação é que as pessoas não usem o ChatGPT para fornecer serviços de diagnóstico ou tratamento para condições médicas graves, afirma a política de uso.

Fonte: CNBC