Agora existe um Darwin Awards para saudar os erros mais estúpidos da IA em 2025
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

A era da inteligência artificial trouxe inovações incríveis, mas também alguns dos erros mais embaraçosos já vistos no mundo da tecnologia. Para celebrar esses fiascos, surgiu o AI Darwin Awards, uma versão digital e bem-humorada do clássico Darwin Awards, que homenageia decisões humanas incrivelmente estúpidas. Os vencedores são escolhidos por votação pública, que será aberta em janeiro. O anúncio final dos premiados acontece em fevereiro de 2025.
- Casal planeja viagem dos sonhos com IA e perde embarque "por causa do ChatGPT"
- Miss São Paulo descobre candidata falsa criada por IA e muda critério de seleção
Inspirados nos prêmios originais que destacavam atos humanos desastrosos, os AI Darwin Awards agora apontam para situações em que empresas e pessoas confiaram cegamente em sistemas de inteligência artificial e acabaram em falhas espetaculares.
A ideia não é ridicularizar a tecnologia em si, mas sim o uso irresponsável dela. Como explicam os organizadores, a IA é apenas uma ferramenta: o problema surge quando humanos a utilizam de forma descuidada, ignorando riscos óbvios.
Quais são os critérios para indicação?
Para ser nomeado ao prêmio, um caso precisa cumprir alguns requisitos:
- Envolver inteligência artificial em algum nível.
- Demonstrar descuido ao ponto de se tornar exemplo para historiadores do futuro.
- Ignorar alertas éticos e de segurança com confiança exagerada.
- Escala de impacto: quanto maior o prejuízo, mais chances de destaque.
- Fator de hubris: quando alguém diz “o que poderia dar errado?” e tudo dá errado.
Indicados
Até o momento, nove indicações verificadas foram listadas no site, mas a equipe pede por mais indicações. Confira todos:
Taco Bell e o drive-thru caótico
A rede testou sistemas de pedidos por voz em mais de 500 lojas, mas a IA falhou em lidar com sotaques, personalizações e até trolls que pediam 18 mil copos de água. Resultado: clientes irritados e uma reavaliação apressada.
Advogado australiano e os processos fictícios
Um advogado usou IA para citar casos inexistentes em tribunal. O erro custou mais de 8 mil dólares em multas e deixou registrado um alerta histórico: confiar em duas IAs não significa checagem dupla.
O jailbreak do GPT-5 em uma hora
Lançado com promessas de segurança reforçada, o GPT-5 foi quebrado por um pesquisador acadêmico em apenas 60 minutos, usando charadas e quebra-cabeças linguísticos. Um golpe duro para a confiança em proteções avançadas.
Superhost do Airbnb e os danos inventados
Um anfitrião do Airbnb tentou cobrar um valor exorbitante inventando estragos com imagens geradas por IA. O Airbnb quase caiu no golpe, mas jornalistas revelaram inconsistências grotescas nas fotos.
MyPillow e o tribunal paralelo da IA
Advogados de Mike Lindell apresentaram quase 30 citações falsas criadas por IA em um processo de difamação. Além das multas, o caso virou exemplo de “realidade alternativa jurídica” alimentada por algoritmos.
McDonald’s e a senha “123456”
O chatbot de recrutamento “Olivia” coletou dados de milhões de candidatos, mas estava protegido apenas pela senha mais óbvia do mundo. Uma falha que misturou descuido humano e incompetência digital.
Xbox e o consolo de IA para demitidos
Após 9.000 demissões, um executivo sugeriu que funcionários poderiam usar IA para lidar com o estresse emocional da perda de emprego. A repercussão foi massivamente negativa e o post precisou ser apagado.
Jornalista e os livros que não existem
Marco Buscaglia publicou recomendações literárias criadas por IA, mas a maioria dos títulos era fictícia. Dois grandes jornais precisaram se desculpar publicamente após o fiasco viral.
Deloitte e a base de dados perdida na Replit
Durante um teste, o assistente de IA da Replit apagou um banco de dados ativo e ainda tentou encobrir o erro. O incidente virou símbolo de como a pressa em adotar IA pode sair cara.
Como enviar sua indicação
Qualquer pessoa pode sugerir uma história no site oficial dos AI Darwin Awards. Basta relatar o caso, explicar como a inteligência artificial foi usada e por que a situação representa um “erro épico” de julgamento. É possível submeter a indicação no próprio site.
Leia também:
- Tecnoespiritualidade | IA é treinada por influenciadores para ser como um guia
- IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos
VÍDEO | A IA vai SUBSTITUIR os MÉDICOS?
Fonte: Gizmodo, AI Darwin Awards