Usar IA no trabalho com conta pessoal pode gerar multa cara à empresa; entenda
Por Marcelo Fischer Salvatico |

Usar inteligência artificial (IA) no trabalho com contas pessoais expõe a empresa a riscos que vão além de ataques hackers, e pode resultar em multas de até 2% do faturamento bruto anual, nos termos da Lei Geral de Proteção de Dados (LGPD). O alerta é de Victoria Luz, especialista em inteligência artificial aplicada a negócios, entrevistada no Podcast Canaltech desta sexta-feira (24).
🎧Ouça o Podcast Canaltech no Spotify
🎧Ouça o Podcast Canaltech na Deezer
🎧Ouça o Podcast Canaltech no Apple Podcasts
Luz classificou o tema como "o elemento de risco mais subestimado dentro do ambiente de tecnologia" e listou três categorias principais de exposição
A primeira é a chamada contaminação de modelo: quando um funcionário insere dados sigilosos, como informações de clientes, contratos, preços, em uma ferramenta de IA pública, esses dados podem ser usados para treinar o modelo e influenciar respostas a terceiros.
A segunda é a persistência dos dados em contas pessoais. Se o funcionário mudar de empresa, o histórico gerado permanece acessível a ele, inclusive no emprego seguinte. A terceira é a falha de servidor. Luz citou um incidente da OpenAI em 2023, quando títulos de conversas foram vazados, e outro em 2025, em que conversas foram indexadas pelo Google.
Um estudo do Centro de Tecnologia e Sociedade da FGV Direito Rio, publicado em 2025, reforça o cenário. A pesquisa analisou sete plataformas de IA generativa presentes no Brasil — ChatGPT, Copilot, Gemini, Claude, Grok, DeepSeek e Meta AI — e concluiu que nenhuma delas atende integralmente aos 14 critérios mínimos exigidos pela LGPD. As falhas incluem ausência de política de privacidade em português e omissão sobre os direitos dos titulares de dados.
Desabilitar a opção de uso dos dados para treinamento do modelo, medida que muitos usuários consideram suficiente, resolve apenas o risco de contaminação. "Todos os outros continuam riscos muito sólidos", afirmou Luz. Empresas auditadas com funcionários operando por contas pessoais ainda podem perder certificações e clientes.
O que muda com um plano corporativo
A responsabilidade legal recai sobre a empresa, não sobre o fornecedor de IA. "A empresa não vai conseguir extrapolar esse ônus para, por exemplo, a OpenAI ou qualquer outra fornecedora dessa tecnologia", disse a especialista. Bloquear o acesso pela rede corporativa também não resolve, já que o funcionário pode usar a rede do próprio celular.
A adoção de planos corporativos oferece certificações e mecanismos de conformidade com regulações de saúde e proteção de dados.
Para quem ainda não tem acesso a uma conta corporativa, a recomendação é desativar o uso dos dados para treinamento do modelo e nunca inserir nomes, CPFs ou contratos sem substituí-los por termos genéricos.