Tem risco enviar fotos nossas ao ChatGPT, Gemini e outras IAs? Entenda
Por André Lourenti Magalhães • Editado por Bruno De Blasi |

Enviar fotos pessoais para IAs ou editores de fotos que usam inteligência artificial é uma tarefa comum e rende muitas experiências nas redes sociais. No entanto, vale ficar de olho nos mecanismos usados para proteger a sua privacidade e evitar a exposição de informações sensíveis.
- Como treinar uma inteligência artificial?
- Para que serve a inteligência artificial? 4 usos além dos chatbots
O ChatGPT é um exemplo de sucesso nas redes sociais: desde o lançamento de um novo modelo de geração de imagens, em março de 2025, o serviço da OpenAI serviu para criar trends como a do Studio Ghibli ou do retrato em preto e branco, por exemplo.
Além disso, apps como FaceApp e Remini já ficaram conhecidos por diferentes filtros em cima de selfies dos usuários. O Canaltech conversou com especialistas para entender quais são os possíveis riscos de enviar uma foto própria para IAs.
O que as IAs podem fazer com as fotos?
ChatGPT, Gemini e outras IAs generativas famosas usam conteúdos compartilhados nas conversas para treinar modelos de inteligência artificial, coletar feedback ou aprimorar os serviços.
No caso do Gemini, o Google informa que é possível excluir o histórico de bate-papo para evitar o treinamento, mas todas as conversas são armazenadas por ao menos 72 horas para análise. O ChatGPT, por sua vez, explica nos termos de uso que cada pessoa pode desativar o treinamento de IAs com base nas conversas individuais.
Quando você envia uma imagem, o modelo de IA pode analisar todos os aspectos dela, desde as pessoas envolvidas e o cenário ao redor. O ChatGPT já conseguiu ser usado para identificar exatamente onde uma foto foi tirada, por exemplo, além de reconhecer o rosto da pessoa para adaptá-lo a diferentes prompts (caso da trend do Studio Ghibli).
Assim, é importante conferir as políticas de privacidade e termos de uso dos chatbots antes de enviar informações pessoais ou sigilosas por comandos de texto ou ao anexar arquivos, como imagens, documentos em PDF e afins.
A prática tem riscos?
Sim, a prática pode ter riscos de privacidade caso a plataforma não tenha termos de uso bem determinados ou sofra um vazamento, por exemplo.
O gerente do Centro de Operações de Segurança (SOC) da Redbelt Security, Marcos Sena, explica que vários dados são fornecidos a uma IA generativa, como informações sobre o dispositivo usado, detalhes da foto ou até o comportamento do usuário com a ferramenta.
Além da preocupação com o uso para treinar modelos de IAs, Marcos Sena entende que os riscos a longo prazo ainda são mal compreendidos. “A pessoa perde o controle sobre como elas [informações] são usadas, já que essas fotos são utilizadas para treinar a IA. Podem ser usadas para gerar conteúdo que pode ser difamatório, para anúncios personalizados ou vendidas a terceiros”, destaca.
A ameaça é ainda maior para aplicativos de edição de fotos pouco esclarecedores sobre o tratamento de dados. “A imagem pode ser usada para fraudes e tentativa de golpes, aplicando, por exemplo, biometria facial”, aponta o especialista.
Responsável por Tecnologia, Inovação e Proteção de Dados do escritório FAS Advogados, Danilo Roque avalia que nem toda foto pode ser usada para fins biométricos, mas basta selecionar uma única imagem para extrair dados sensíveis.
“Ferramentas de inteligência artificial com capacidades de visão computacional mais sofisticadas conseguem identificar dezenas de pontos do rosto, como o espaçamento dos olhos, a curvatura das sobrancelhas, a linha da mandíbula e outros traços faciais únicos. A partir disso, elas são capazes de gerar um código matemático que representa o rosto da pessoa de forma única. Trata-se de uma espécie de “impressão facial”, análoga a uma impressão digital, que pode ser utilizada para reconhecimento facial, comparação entre imagens e até treinamento de modelos automatizados”, comenta.
Dessa forma, Roque alerta para o risco de “fornecer insumos para criar modelos digitais” do próprio rosto. Caso sejam tratados de forma indevida, poderiam ser aplicados para burlar sistemas de reconhecimento facial mais simples de catracas ou autenticações de apps, por exemplo.
“Trata-se de um risco que vai além do uso comercial da imagem e que pode afetar diretamente a segurança do indivíduo, especialmente em ambientes com proteção biométrica pouco sofisticada”, completa.
Como evitar a exposição de dados sensíveis para IAs
Essas ferramentas levantam um sinal de alerta, mas o uso consciente pode diminuir eventuais incertezas que envolvem o tratamento dos dados. “Não é sobre evitar a tecnologia, mas sim usá-la de forma consciente, informada e proporcional ao risco”, explica Danilo Roque.
A encarregada de proteção de dados do escritório Viseu Advogados, Antonielle Freitas, reforça que imagens do rosto podem ser consideradas dados sensíveis de acordo com a Lei Geral de Proteção de Dados (LGPD) do Brasil, por isso recomenda um cuidado maior.
“Mesmo que os dados não sejam expostos diretamente, informações sensíveis podem ser assimiladas pelos modelos e refletidas em futuras respostas. Isso levanta questões éticas e jurídicas relevantes, como o direito ao consentimento, à transparência e ao esquecimento”, acrescenta.
Por isso, se você quer compartilhar fotos com IAs, vale prestar atenção nas seguintes dicas:
- Desativar o treinamento de modelos de IA com respostas;
- Criar chats temporários que não salvam o histórico de bate-papo;
- Evitar fotos que mostrem muitos detalhes, como documentos e localizações;
- Prestar atenção aos termos de uso;
- Não enviar fotos de terceiros para IAs;
- Dar preferência a plataformas conhecidas e com diretrizes bem definidas sobre o tratamento dos dados.
Leia também:
- ChatGPT, Gemini, Copilot e DeepSeek: quais são as diferenças entre as IAs?
- Afinal, tem como ver se um texto foi feito por IA? Conheça 3 sinais
- GAIA, Amazônia e mais: 5 IAs generativas brasileiras
VÍDEO: Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?