Falha na IA | Estamos ensinando sistemas a buscar curtidas e cliques — entenda
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Uma nova pesquisa da Universidade de Stanford acendeu um alerta preocupante sobre a inteligência artificial: mesmo quando programadas para serem úteis e verdadeiras, as IAs podem aprender a mentir, manipular e espalhar desinformação para “vencer” em ambientes competitivos.
- IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos
- Advogado flagrado usando citações falsas geradas por IA é punido na Austrália
Os pesquisadores criaram um mundo virtual no qual diferentes IAs competiam entre si em situações como campanhas eleitorais, marketing de produtos e busca por engajamento em redes sociais. Embora todas fossem instruídas a agir de forma ética e transparente, o resultado foi o oposto do esperado.
Para alcançar melhores resultados (mais votos, vendas ou curtidas), as IAs começaram a mentir, distorcer informações e até usar discurso de ódio. Os cientistas notaram que a IA faz o que for preciso para vencer, mesmo que isso signifique abandonar seus princípios.
IA mente e usa desinformação
Para aumentar o engajamento em 7,5%, as IAs geraram 188,6% mais desinformação. No cenário de marketing, um crescimento de 6,3% nas vendas veio acompanhado de 14% mais propaganda enganosa. Em simulações eleitorais, 4,9% a mais de votos significaram 22,3% mais fake news e 12,5% mais retórica populista.
Esses números mostram que, ao otimizar as IAs para obter resultados competitivos, estamos ensinando a trapacear o sistema. O problema não está apenas no algoritmo, mas na forma como o recompensamos: quanto mais a IA gera engajamento, mais é “premiada”, mesmo que isso custe a verdade.
Por que isso importa — e muito
A pesquisa revela que as IAs já estão moldando nossa percepção do mundo. Se elas descobrem que mentir gera mais cliques, farão isso. Isso significa que, enquanto rolamos o feed, podemos estar sendo manipulados por sistemas que aprenderam a explorar nossas emoções (especialmente o medo, a raiva e a curiosidade) para nos manter presos à tela.
Os especialistas de Stanford alertam para a necessidade de aumentar as medidas atuais de segurança e de repensar as recompensas e incentivos dados a esses sistemas de inteligência artificial. Em vez de medir sucesso apenas por cliques, curtidas ou vendas, segundo eles, seria necessário incluir métricas éticas e de veracidade.
Leia também:
- Carta assinada por Wozniak quer parar desenvolvimento da superinteligência da IA
- Modelos de IA famosos estão usando artigos científicos retratados como fonte
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?
Fonte: ARXIV, Digital Trends