Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

OpenAI é acusada de não combater alucinações do ChatGPT

Por| Editado por Douglas Ciriaco | 30 de Abril de 2024 às 11h22

Link copiado!

Viralyft/Unsplash
Viralyft/Unsplash

O ChatGPT é alvo de um novo pedido de investigação sobre os casos de alucinação e geração de informações falsas a respeito de indivíduos que pode resultar em uma multa de 20 milhões de euros. A noyb, uma organização sem fins lucrativos focada em privacidade e com base na União Europeia, apresentou a queixa contra a OpenAI e alega que a empresa tem conhecimento sobre a incapacidade da IA de corrigir as respostas falsas, mas não oferece soluções.

A noyb encaminhou a reclamação à Autoridade Austríaca de Proteção de Dados e se fundamenta no Regulamento Geral sobre a Proteção de Dados da União Europeia (GDPR). Essa lei permite que as pessoas solicitem correções sobre informações imprecisas geradas por ferramentas de IA e tenham explicações sobre como seus dados pessoais são coletados e armazenados pelos modelos de linguagem.

Alucinações em informações sobre indivíduos

Continua após a publicidade

O texto da organização lembra que a IA generativa é incapaz de garantir a veracidade das respostas, já que seu funcionamento se dá através de um modelo preditivo de associação de palavras a partir do prompt de comando.

O problema está, segundo a noyb, na geração de informações falsas a respeito de pessoas. “Embora informações imprecisas possam ser toleráveis quando um aluno usa o ChatGPT para ajudá-lo com o dever de casa, elas são inaceitáveis quando se trata de informações sobre indivíduos”, diz a organização.

De acordo com a queixa, a legislação europeia exige que os dados pessoais sejam precisos. Além disso, os indivíduos também têm direito à retificação, nos termos do GDPR, se os dados forem imprecisos e podem solicitar que informações falsas sejam excluídas.

No comunicado sobre o pedido de investigação, a representante cita uma reportagem do jornal The New York Times que revela que os chatbots inventam informações pelo menos 3% das vezes — com uma máxima que pode chegar até 27%. Esses dados reiteram o problema de alucinações das IAs, quando as ferramentas inventam respostas sem qualquer base factual.

“Está claro que as empresas não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da União Europeia ao processar dados sobre indivíduos. Se um sistema não consegue produzir resultados precisos e transparentes, ele não pode ser usado para gerar dados sobre indivíduos”, diz a advogada de proteção de dados na noyb, Maartje de Graaf, no texto do pedido de investigação.

A organização solicita que a Autoridade Austríaca de Proteção de Dados investigue “o processamento de dados da OpenAI e as medidas tomadas para garantir a precisão dos dados pessoais processados no contexto dos grandes modelos de linguagem da empresa”.

A noyb pede ainda que a autoridade imponha penalidades à companhia para garantir o cumprimento da lei no futuro. O não cumprimento das regras do GDPR pode resultar em uma multa de até 20 milhões de euros ou 4% do faturamento anual global — a decisão é baseada na quantia de maior valor.

Continua após a publicidade

A OpenAI ainda não se pronunciou sobre a queixa e o pedido de investigação solicitado pela organização noyb.