Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

OpenAI lança detector de imagens geradas por IA

Por| Editado por Douglas Ciriaco | 08 de Maio de 2024 às 10h25

Link copiado!

Andrew Neel/Pexels
Andrew Neel/Pexels

A OpenAI anunciou o lançamento de uma ferramenta que prevê a probabilidade de uma imagem ter sido gerada pelo DALL-E 3, a IA de criar imagens a parir de comandos de texto da companhia. O detector foi liberado inicialmente para um pequeno grupo de testadores, incluindo laboratórios de pesquisa e organizações sem fins lucrativos de jornalismo, para avaliar a eficácia da aplicação em situações reais.

O objetivo da OpenAI é ajudar as pessoas a identificarem conteúdos gerados por IA e fornecer mais detalhes sobre como eles foram criados. A novidade foi anunciada nessa terça-feira (7), no blog da companhia, e visa atender parte dos questionamentos da sociedade em relação aos riscos de a inteligência artificial ser usada para criar deepfakes e manipular imagens “reais”.

“O mundo precisa de formas comuns de compartilhar informações sobre como o conteúdo digital foi criado. Os padrões podem ajudar a esclarecer como o conteúdo foi criado e fornecer outras informações sobre suas origens de uma forma que seja fácil de reconhecer em muitas situações — seja esse conteúdo o resultado bruto de uma câmera ou uma criação artística de uma ferramenta como o DALL-E 3”, escreve a empresa.

Continua após a publicidade

Identificando imagens de IA

De acordo com a OpenAI, a ferramenta de detecção teve um alto índice de precisão nos testes internos ao analisar se uma imagem foi gerada ou não pelo DALL-E 3. Ela foi capaz de identificar corretamente 98% das imagens criadas com a IA da companhia e sinalizou incorretamente em menos de 0,5% os conteúdos que não foram gerados pela IA.

Segundo a empresa, “o classificador consegue identificar modificações comuns como compactação, corte e alterações de saturação com mínimo impacto no seu desempenho. Outras modificações, entretanto, podem reduzir o desempenho”.

A OpenAI abriu o acesso para teste da ferramenta para pesquisadores da área de desinformação. A dona do ChatGPT aceita novas candidaturas para pessoas que desejam avaliar o desempenho do classificador e ajudar a investigar possíveis falhas e aplicações no mundo real.

Coalizão para Procedência e Autenticidade de Conteúdo

Além da ferramenta de detecção de imagens geradas pelo DALL-E 3, a OpenAI anunciou também que se juntou ao comitê gestor da C2PA (Coalizão para Procedência e Autenticidade de Conteúdo, em tradução livre) com o objetivo de contribuir com o desenvolvimento do padrão para identificar conteúdos de IAs.

“C2PA é um padrão amplamente utilizado para certificação de conteúdo digital, desenvolvido e adotado por uma ampla gama de atores, incluindo empresas de software, fabricantes de câmeras e plataformas online. O C2PA pode ser usado para provar que o conteúdo vem de uma fonte específica”, explica a companhia.

Continua após a publicidade

A empresa informa que, desde o começo do ano, adiciona metadados do padrão C2PA nos materiais gerados pelo ChatGPT, DALL-E 3 e API da companhia — e vai incluir também na IA Sora, de geração de vídeos, quando o modelo for lançado para o grande público.

No anúncio das novas ações para identificar os conteúdos criados com IAs, a OpenAI chama a atenção para a necessidade de uma ação coleta de diferentes agentes para garantir a efetividade dessas soluções. “As plataformas, os criadores de conteúdo e os manipuladores intermediários precisam facilitar a retenção de metadados, a fim de permitir transparência para o consumidor final sobre a origem do conteúdo”, finaliza a companhia.

O alerta da empresa indica que o conjunto de técnicas para sinalizar conteúdos gerados por IA pode não ser suficiente para resolver problemas urgentes do setor — como os deepfakes de políticos e figuras públicas que podem afetar a opinião das pessoas — se não houver colaboração de todas as partes.