Publicidade

OpenAI hesita lançar método para detectar textos do ChatGPT, diz jornal

Por  | 

Compartilhe:
Ivo Meneghel Jr/Canaltech
Ivo Meneghel Jr/Canaltech

A OpenAI possui uma ferramenta capaz de identificar quando textos são gerados pelo ChatGPT, mas ainda não decidiu sobre seu lançamento devido a debates e questionamentos internos. A tecnologia teria eficácia de 99,9% e estaria pronta para uso há aproximadamente um ano, segundo fontes internas e documentos obtidos pelo The Wall Street Journal.

A ferramenta funciona com a inserção de uma marca d'água invisível nos textos gerados pelo ChatGPT. Essa marca é composta por padrões de seleção de palavras que, embora imperceptíveis ao olho humano, podem ser detectados por um sistema desenvolvido pela OpenAI.

Identificando textos gerados pelo ChatGPT

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Apesar da alta precisão e do longo desenvolvimento, a OpenAI enfrenta dilemas sobre o impacto da ferramenta. De acordo com o jornal, uma pesquisa interna revelou que quase um terço dos usuários fiéis do ChatGPT deixaria de utilizar o serviço se a tecnologia fosse implementada.

Além disso, há preocupações de que a ferramenta possa prejudicar grupos específicos, como pessoas que não têm o inglês como língua nativa, que poderiam ser injustamente acusados de trapaça.

Uma porta-voz da OpenAI disse ao The Wall Street Journal que a empresa está preocupada que a ferramenta possa afetar desproporcionalmente grupos distintos. “O método de marca d’água de texto que desenvolvemos é tecnicamente promissor, mas tem riscos importantes que estamos ponderando enquanto pesquisamos alternativas”, disse ela.

Funcionários da OpenAI apontam também que a marca d'água pode ser facilmente removida por técnicas simples, como a tradução do texto para outro idioma e seu retorno ao original. Esse fato levanta questões sobre a eficácia real da tecnologia em cenários de uso cotidiano.

Segundo as fontes do The Wall Street Journal, e empresa discute a possibilidade de oferecer o detector de textos gerados pelo ChatGPT diretamente para educadores e empresas que ajudam as escolas e instituições de ensino a identificar trabalhos plagiados ou escritos por IA — mas nada está definido.

Vale lembrar que a OpenAI testa há alguns meses uma ferramenta para identificar se uma imagem foi gerada com o seu modelo DALL-E 3. A empresa deu prioridade à marca d'água de imagens e sons em vez de texto por uma preocupação maior com os deepfakes, principalmente com as possibilidades de uso político em ano eleitoral nos Estados Unidos.

Enquanto isso, outras empresas também desenvolvem métodos de detecção de textos gerados por IA. O Google, por exemplo, testa uma ferramenta chamada SynthID para seu modelo de IA Gemini, mas que ainda não está amplamente disponível.

Continua após a publicidade

Fonte: The Wall Street Journal