IA em escala exige governança em escala
Por Arthur Capella |

A inteligência artificial deixou de ser um experimento para se tornar parte da rotina das organizações. Assistentes resumem informações, apoiam decisões e automatizam processos. Agentes criados sem código já atendem clientes, atualizam sistemas e aprovam tarefas.
- O leão da cibersegurança: por que as empresas ainda correm devagar?
- Risco zero não existe: alívio para quem precisa decidir
O problema surge quando essa IA passa a acessar dados sensíveis como histórico, informações salvas e contexto corporativo, além de executar ações. Nesse momento, ela deixa de ser apenas uma interface amigável e se transforma em um novo “corredor” dentro da organização: rápido, eficiente e potencialmente explorável.
Pesquisas recentes da Tenable mostram que esse corredor pode ser usado contra a própria empresa, inclusive em situações que parecem normais para qualquer executivo.
Um dos achados mais relevantes dessas pesquisas é que a IA não é apenas um alvo, ela pode se tornar o meio pelo qual o ataque acontece. Vulnerabilidades identificadas no ecossistema do Gemini, por exemplo, mostram que assistentes podem ser induzidos a facilitar a exfiltração de dados.
Isso muda a lógica tradicional de risco. Não se trata apenas de impedir invasões externas, mas de evitar que mecanismos internos, criados para ajudar, sejam manipulados para agir fora de sua finalidade.
Ao contrário do que muitos imaginam, o risco não está apenas em ataques sofisticados. Nossas pesquisas mostram que técnicas como injeção indireta de instruções, exfiltração de dados e bypass de controles podem ocorrer em interações comuns, às vezes apenas fazendo uma pergunta.
Conteúdos aparentemente inofensivos, como documentos, sites ou históricos, podem carregar instruções ocultas que levam a IA a agir contra os interesses da organização, sem que o usuário perceba.
Automação no-code: ganho de escala e de exposição
A popularização de ferramentas no-code tem ampliado a produtividade, mas também o risco. Análises sobre o Copilot Studio mostram que mais colaboradores conseguem colocar agentes em produção com acesso a sistemas críticos.
Em testes da nossa própria companhia, foi contatado que uma simples manipulação por prompt injection levou ao vazamento de dados sensíveis (incluindo cartões) e até a execução de uma fraude financeira ao alterar o valor de uma reserva para custo zero. Isso revela, que um agente pode ser induzido a fazer algo indevido com a mesma naturalidade com que responde a uma pergunta.
Três perguntas que a liderança precisa fazer
Antes de escalar o uso de IA, executivos deveriam exigir respostas claras para três questões:
-
Onde a IA está sendo usada na organização?
Visibilidade é essencial para aplicar políticas e manter controle. -
A IA acessa dados persistentes ou contextos sensíveis?
Memórias, históricos e informações salvas podem se tornar vetores de exfiltração. -
A IA pode executar ações ou aprovar decisões?
Se o agente tem acesso total, a questão principal não é se ele será útil, mas se a empresa consegue garantir que esse agente não será manipulado para agir fora das regras e políticas estabelecidas.
Governança que protege sem travar o negócio
O caminho está em uma governança proporcional ao impacto. As boas práticas incluem mapear ferramentas acessadas pelos agentes, classificar dados por sensibilidade, limitar capacidades de escrita e aprovação, monitorar prompts que disparam ações e rastrear o comportamento dos agentes.
Se a IA apenas resume conteúdo público, o risco é baixo. Se acessa dados internos ou altera sistemas, estamos falando de governança, auditoria e segregação de funções, temas clássicos, agora aplicados a uma nova camada tecnológica.
A maturidade em IA não será medida por quem adotou primeiro, mas por quem adotou com controle. Com a IA se integrando ao tecido operacional das organizações, segurança deixa de ser apenas um tema técnico e passa a ser uma questão de continuidade, privacidade e integridade do negócio. Porque, no fim, aquela “simples conversa” pode carregar decisões e consequências muito reais.
Leia mais no site do Canaltech: