Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

8 coisas absurdas que o ChatGPT faz, mas não deveria

Por| Editado por Douglas Ciriaco | 27 de Maio de 2023 às 12h00

Link copiado!

Rafael Damini/Canaltech
Rafael Damini/Canaltech

O ChatGPT é uma ferramenta incrível que não para de surpreender por suas capacidades criativas, mas que também fazem o que não deveria. Além dos usos práticos cotidianos, a inteligência artificial da OpenAI pode ir por um caminho bem inadequado.

O chatbot é capaz de coisas antiéticas, negativas ou até criar pânico nas pessoas, mesmo com o trabalho duro dos desenvolvedores para evitar tudo isso. É por isso que se recomenda usar a IA generativa do ChatGPT com muita cautela, sempre no lado bom da Força.

Coisas que o ChatGPT faz, mas não deveria

Continua após a publicidade

8. Dar opinião em questões delicadas

A OpenAI toma o maior cuidado para marcar com bandeiras vermelhas conteúdos delicados que não devem ser respondidos. Mas, como tudo na vida, sempre tem alguém que consegue burlar o sistema para destravar algum modo psicólogo ou palpiteiro.

Com o comando certo, o ChatGPT pode sugerir coisas para você fazer se estiver em um relacionamento tóxico, se for vítima de agressão ou até se planeja algo ruim, por exemplo. Isso é complicado porque envolve questões legais e em algum casos a integridade física das pessoas.

Continua após a publicidade

O chatbot até reforça a necessidade de buscar um "profissional especializado", mas produz conteúdo que pode não ser o recomendado por autoridades. O Canaltech já até produziu um especial sobre os temas mais pesados tratados pelo serviço.

7. Atuar como médico

Com certos comandos no prompt, o ChatGPT pode agir como se fosse um profissional de saúde. O chatbot faz um processo de coleta de dados e sintomas da pessoa para apresentar um provável diagnóstico.

Continua após a publicidade

O problema disso é que a IA não é formada em medicina nem possui capacidade de raciocínio próprio, o que atesta sua incapacidade para compreender o contexto. O ChatGPT pode indicar como leve algo que, na verdade, pode ser uma doença muito mais complicada — e vice-versa.

Embora a resposta seja bem completinha e até bem escrita, pode trazer erros graves na anamnese com potenciais efeitos nocivos na vida real.

6. Criar notícias falsas

Muita gente usa a capacidade criativa de inventar histórias do ChatGPT para o lado ruim. Uma peça fictícia pode virar uma fake news que apavora a população, o que pode trazer imensos transtornos para as autoridades.

Continua após a publicidade

Com determinados comandos, é possível convencer o robô a escrever sobre praticamente qualquer coisa. E graças à capacidade de fazê-lo de maneira humanizada, nem todos conseguem diferenciar a mentira.

Recentemente, um homem foi preso na China após usar a IA da OpenAI para criar uma notícia falsa sobre um acidente de trem. A polícia rastreou o IP e conseguiu chegar até ele para efetuar a prisão em flagrante.

5. Fazer trabalhos escolares

Continua após a publicidade

Os professores são um dos principais inimigos do ChatGPT porque muitos alunos começaram a usar a IA para fazer trabalhos de escola.

O chatbot pode escrever resumos de livros, ensaios sobre assuntos técnicos ou até resolver problemas matemáticos. Com o comando certo, dá para convencer a tecnologia a criar um ensaio sobre basicamente qualquer tema.

Para se ter uma ideia, até cientistas já foram enganados por resumos criados pelo chatbot a partir de pesquisas reais. A coisa é tão complicada que muitas instituições já usam ferramentas para detectar textos produzidos por IA.

Continua após a publicidade

4. Consultoria para golpes

O ChatGPT pode ser extremamente persuasivo com sua escrita apurada e capacidade de reunir informações em poucos segundos. Isso faz dele um “parceiro perfeito” para redigir e-mails, mensagens de WhatsApp ou até conteúdos incrivelmente convincentes.

É claro que há travas ali que impedem o uso para golpes diretos, mas com alguma habilidade dá para contornar as limitações. A vantagem é que o modelo está em constante evolução, então fica cada vez mais difícil burlar as proteções.

Continua após a publicidade

Recentemente, golpistas usaram o serviço para para melhorar textos de mensagens diretas do Instagram. O perigo reside justamente na escrita sem erros e concisa, algo que os bandidos deixavam a desejar nas tentativas de phishing do passado.

Ah, e o pior é que em muitos casos ele cria conteúdo nocivo e pede para a pessoa não usar para atividades fraudulentas. Boa dica, campeão!

3. Criar vírus de computador 

Criar um vírus de computador é uma tarefa complexa para muita gente, mesmo com conhecimento em programação, mas não para o ChatGPT. O chatbot tem uma incrível habilidade para criar malwares indetectáveis por ferramentas de segurança.

Continua após a publicidade

Além disso, bandidos usam plugins, aplicativos falsos e utilitários fake para aplicar golpes se passando pelo ChatGPT. Há, por exemplo, uma extensão falsa que prometia integrar o chatbot ao Facebook, mas que dava acesso integral ao perfil da vítima.

2. Omitir as fontes das informações

Uma das maiores críticas feitas ao ChatGPT é a ausência das fontes de informações dadas por ele. De onde aquele dado foi tirado? Qual o site trouxe aquela afirmação específica? Essa medida é necessária para fortalecer (ou enfraquecer) a credibilidade daquele conteúdo.

Continua após a publicidade

O modelo GPT-3.5 somente tinha dados atualizados até setembro de 2021. O modelo GPT-4 resolveu isso ao se conectar diretamente ao Bing, então poderá trazer dados em tempo real, como o rival Bard já faz de maneira otimizada.

Agora, resta saber se as futuras versões do chatbot vão linkar suas respostas às fontes. Afinal, de nada adianta buscar a informação se a fonte for um blog desconhecido do público.

1. Alucinar e falar coisas sem sentido

Continua após a publicidade

Toda tecnologia precisa de tempo e ajustes para ser aperfeiçoada, e isso não é diferente com os modelos de IA. No caso do ChatGPT, já é possível notar uma incrível evolução desde a sua explosão, em dezembro de 2022, até o momento atual.

Apesar das constantes melhorias, a IA ainda pode apresentar problemas quando certos fatores acontecem. Se alguém mantiver conversas muito longas, por exemplo, o algoritmo pode se perder e começar a falar coisas sem sentido.

Há pouco tempo, alguém fez uma experiência no Reddit de pedir ao chatbot para escrever a letra A até quando conseguisse. O resultado foi bizarro, porque em algum momento a IA começou a escrever coisas totalmente aleatórias.

A ferramenta só poderá atingir seu ápice quando ninguém (ou pouquíssimas pessoas) conseguir driblar seus sistemas de proteção. Enquanto isso, ainda segue como algo que o ChatGPT faz, mas não deveria.