IA do Google sugere cola na pizza, comer pedra e outras bizarrices
Por Ricardo Syozi • Editado por Douglas Ciriaco |
A tecnologia de inteligência artificial pode ser bastante útil, mas também consegue trazer situações bizarras a quem faz uma simples busca na internet. Exemplos disso surgiram recentemente na IA que resume conteúdos na Busca do Google: a assistente fez recomendações no mínimo questionáveis, como adicionar de cola ao molho de uma pizza e a ingestão de pedras para garantir minerais e vitaminas ao corpo.
- Google explica por que a IA Gemini tem este nome
- 4 funções do ChatGPT que eram pagas e agora estão de graça
- Google lança app do Gemini no Brasil integrado a YouTube e Gmail
Recomendações bizarras da IA do Google
A inteligência artificial generativa comumente utiliza informações da própria internet para responder às dúvidas das pessoas. Dessa forma, era provável que mais cedo ou mais tarde, alguns desses dados oferecidos pudessem ser, no mínimo, questionáveis — confira algumas doideiras abaixo.
Cola na pizza
O primeiro caso é de uma situação curiosa em que a IA do Google decidiu recomendar cola para segurar o queijo na pizza. “Misturar o queijo ao molho ajuda a adicionar umidade ao queijo e a secar o molho. Você também pode adicionar cerca de 1/8 xícara de cola não tóxica ao molho para torná-lo mais pegajoso”, afirma o chatbot.
Essa sugestão surgiu no Reddit há 11 anos, mas de alguma maneira maluca acabou servindo como fonte.
Pedra como parte da alimentação
Outra indicação “fora da casinha” veio após uma pesquisa sobre quantas pedras alguém deveria comer — na resposta, a inteligência artificial frisa que o ideal é ingerir uma diariamente. “Recomenda-se pelo menos uma pedra pequena por dia porque a rocha contém minerais e vitaminas que são importantes para a saúde digestiva”, sugere a IA.
Nesse caso, a fonte é o site The Onion, um site de sátira famoso por fazer piada e criar manchetes engraçadas como “Scarlett Johansson de 7 dedos aparece em vídeo para expressar aprovação total da OpenAI”.
Veneno é bom e alvejante não é tóxico
Em um post na rede social de Elon Musk, um usuário de nome @FroyoTam publicou suas questões para a pesquisa da plataforma. As dúvidas foram se veneno e neurotoxina são boas para uma pessoa e se a água sanitária é segura e saudável. Em todas as situações, a IA do pesquisador do Google trouxe explicações estranhas.
"Neurotoxinas são seguras e efetivas como opção terapêutica", diz a pesquisa. "Alvejante doméstico não é considerado tóxico ou corrosivo quando ingerido", completa em outra questão.
Pular da ponte
Para algo mais trágico, a IA aponta que um usuário do Reddit sugere "pular da ponte Golden Gate" — localizada no estado da Califórnia, nos EUA — como forma de lidar com depressão.
Coelho como jogador de basquete
Além disso, a inteligência artificial da Gigante de Buscas também pode embaralhar informações, como no exemplo do usuário do X (antigo Twitter) Leeron Zhang, que questionou se um coelho alguma vez jogou na NBA. A resposta foi positiva, já que a IA confundiu o animal com o atleta Rabbit Walthour — "rabbit" também significa coelho em inglês.
Google responde
Questionado pelo Canaltech sobre as falhas relatadas por parte do público, o Google disse que esses são fatos isolados.
“Exemplos como esse são geralmente de consultas pouco comuns e não representam a maioria da experiência das pessoas. A vasta maioria dos resumos gerados com IA oferece informação de alta qualidade, com links para explorar o assunto mais a fundo na web”, disse a companhia.
Vale lembrar que essa não é a primeira vez que uma inteligência artificial dá respostas questionáveis. Em 2023, o ChatGPT conseguiu ser assustador em alguns momentos e até disse coisas sem sentido em outra situação.