Publicidade

ChatGPT: 7 possíveis riscos da ausência de política de uso em empresas

Por  • Editado por Claudio Yuge | 

Compartilhe:
Reprodução/Freepik
Reprodução/Freepik

O ChatGPT é uma ferramenta baseada em inteligência artificial que está revolucionando o mercado. Seu modelo de linguagem permite que a IA consiga realizar diversas tarefas, principalmente as mais burocráticas e repetitivas, como resumir textos, criar e-mails, gerar códigos e muito mais.

No entanto, à medida que seu uso é disseminado, mais os erros cometidos pelo modelo são evidenciados. Diante desse cenário, profissionais de todas as áreas estão em busca de entender seu impacto, os riscos associados e quais as medidas adequadas para minimizá-los.

Paulo Vidigal, advogado especializado em Direito Digital, Privacidade e Proteção de Dados, resolveu elaborar políticas de uso seguro da ferramenta para guiar os usuários da ferramenta quanto às práticas aceitáveis e inaceitáveis. Em conjunto com o ChatGPT, foram definidos alguns riscos potenciais do uso da ferramenta e as condutas esperadas dos colaboradores frente a tais situações.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Sete possíveis riscos do uso do ChatGPT e suas soluções

1. Riscos de qualidade

Já foi provado que o ChatGPT pode produzir resultados e respostas imprecisas. O especialista, porém, ressalta o risco ao pedir que a ferramenta realize tarefas computacionais ou mencione precedentes jurídicos. Neste caso, os funcionários devem:

  • Revisar cuidadosamente as saídas do ChatGPT para identificar e corrigir quaisquer erros;
  • Ser treinados sobre como identificar e corrigir erros nas saídas do ChatGPT;
  • Procurar revisores designados pela empresa para revisar as saídas geradas pelo ChatGPT para tarefas críticas, como pareceres jurídicos, relatórios financeiros e comunicações com clientes.

2. Riscos contratuais

O uso da ferramenta pode violar as disposições contratuais com os clientes em relação aos fins para os quais seus dados podem ser utilizados. Neste cenário, os funcionários devem se familiarizar com os termos de uso da OpenAI antes de usar o ChatGPT e, se necessário, buscar aconselhamento jurídico.

3. Riscos de privacidade

Continua após a publicidade

Segundo Vidigal, o compartilhamento de dados pessoais com a OpenAI, empresa controladora do ChatGPT, pode representar riscos de privacidade e contrariar as políticas da companhia. Sendo assim, o manual sugere que os colaboradores devem se familiarizar com os termos de uso da OpenAI e o aconselhamento jurídico quando necessário.

4. Riscos de fornecedores

Ainda relacionado ao compartilhamento de dados, o uso da ferramenta por fornecedores pode gerar riscos à empresa, como a quebra de confidencialidade. Dessa maneira, os funcionários devem garantir que os contratos com fornecedores proíbam ou limitem a inserção de dados da empresa (em especial aqueles confidenciais) no ChatGPT.

5. Riscos de propriedade intelectual

Continua após a publicidade

Considerando que o ChatGPT não possui criatividade e se baseia em um banco de dados para gerar suas respostas, a ferramenta apresenta riscos de violação de direitos autorais e segredos comerciais. O especialista aconselha procurar aconselhamento jurídico antes de usar o ChatGPT para processar dados confidenciais ou gerar conteúdo que possa estar sujeito a proteção por direitos autorais ou segredos comerciais.

6. Riscos de segurança cibernética

O compartilhamento de dados pessoais ou informações confidenciais pode trazer riscos à segurança cibernética dos usuários. Portanto, os colaboradores devem estar atentos às informações que inserem no ChatGPT e devem evitar imputar dados pessoais e informações críticas como senhas, informações financeiras, etc, na plataforma.

7. Riscos de vieses

Continua após a publicidade

Por fim, o ChatGPT ainda pode apresentar resultados enviesados em suas respostas com base nos dados em que foi treinado. Considerando este cenário, os funcionários devem estar cientes do potencial de viés nas respostas da ferramenta e fazer esforços para avaliar e mitigar qualquer viés na informação gerada, a qual deve ser justa e imparcial e não discriminatória.

O advogado conclui a experiência reforçando que, dependendo do contexto, é importante criar políticas para um uso seguro, responsável e ético da ferramenta, visando mitigar os riscos para a organização.

"É claro que esse esforço tem de ser bem dimensionado para não burocratizar excessivamente o dia a dia dos colaboradores e, consequentemente, reduzir a capacidade inovadora e agilidade da empresa", finaliza Paulo.