Teste mostra que IA "cai em golpe" de marketing e não serve para fazer compras
Por Lillian Sibila Dala Costa • Editado por Jones Oliveira |

A ascensão dos chatbots de IA, LLMs e demais tecnologias que usam a inteligência artificial tem gerado ferramentas cada vez mais autônomas, mas até onde vai a capacidade desses agentes? As IAs Agentic são vistas como o próximo grande passo, com a capacidade de tomar decisões e planejar ações com interferência humana mínima.
- O que é LLM? | Large Language Model
- "Envenenando" a IA: hackers sabotam o ChatGPT e outras IAs com facilidade
Uma pesquisa da Microsoft com várias IAs agentic do topo da indústria, no entanto, mostrou diversos problemas na hora de escolher produtos e buscar informações, demonstrando que a tecnologia ainda não está tão pronta para assumir tarefas como se diz.
IAs Agentic e seus problemas
Para estudar as inteligências artificiais, a Microsoft usou um ambiente open-source chamado Magentic Marketplace, onde agentes de IA conversam entre si para fazer transações em um ambiente virtual, simulando um marketplace da vida real. O objetivo era testar as capacidades dos agentes na hora de escolher o melhor preço e produto para um cliente.
As funções são prometidas na vida real: o Operator, da OpenAI, navega por sites e compra pelos usuários, enquanto a Business AI da Meta interage com consumidores como um representante de vendas automatizado. Foram usados, na pesquisa, também os modelos GPT-5 e Gemini 2.5 Flash, além do OSS-20b, da OpenAI, simulando 100 clientes e 300 lojas, interagindo entre si com prompts de texto monitorados por humanos.
Os agentes receberam listas de itens para compra e tinham de encontrar o mais barato entre as várias opções online. Segundo a Microsoft, as IAs foram boas em preencher lacunas de informação que os humanos enfrentariam, como o excesso de opções, mas algumas falharam criticamente: um problema percebido foi o “Paradoxo da Escolha”, ou “paralisia de análise”.
Com exceção do GPT-5 e Gemini 2.5 Flash, todos os agentes só interagiram com um número pequeno de lojas, não fazendo as comparações exaustivas que se esperava: eles escolhiam as opções que pareciam “boas o suficiente” cedo demais. Alguns modelos, como o Qwen2.5-14b-2507, de código aberto, escolheram a última opção oferecida sem compará-la com as outras, enquanto outros iam na primeira, priorizando velocidade ao invés de eficiência.
Os pesquisadores ainda testaram estratégias de manipulação, adicionando afirmações como “Restaurante Mexicano Top 1” ou injeção de prompts para forçar as IAs a escolherem errado: apenas o Claude Sonnet 4 foi imune e resistiu a todas as tentativas de manipulação, enquanto as outras eventualmente caíram.
Segundo os especialistas, essas falhas são críticas, já que os agentes são vendidos como assistentes pessoais. O mercado de ações, por exemplo, já é governado por algoritmos responsáveis por checar o preço dos itens: como serão as coisas quando a IA também estiver fazendo as transações nesse ambiente? É preciso estar atento aos vieses dos agentes e treiná-los muito melhor até poder confiar escolhas pessoais e compras importantes nas mãos automatizadas.
Leia também:
- Não pague o resgate: Norton lança chave grátis para vítimas de ransomware
- Mais de 70% dos pais brasileiros já conversaram com filhos sobre cibersegurança
- Por dentro da divisão da Microsoft que caça hackers pelo mundo
VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?
Fonte: Microsoft