App mascara imagens para impedir "roubo de estilo" por IAs
Por Alveni Lisboa • Editado por Douglas Ciriaco |
Pesquisadores da Universidade de Chicago, nos Estados Unidos, desenvolveram uma solução capaz de barrar o uso indevido de imagens por modelos de inteligência artificial. O aplicativo chamado Glaze permite que artistas façam modificações sutis nos seus trabalhos antes de carregá-los na web, o que permite evitar a utilização em repositórios para treinamento de IAs.
- Google começa testes públicos com a IA Bard, rival do ChatGPT
- IA do ChatGPT vai transcrever prontuários médicos
O software usa um recurso chamado "camuflagem de estilo", que insere pequenas mudanças quase imperceptíveis a olho nu para enganar os padrões de ferramentas de criação de IAs. Os pixels de imagens são levemente alterados para enganar a IA, fazendo com que o robô pense se tratar de um estilo de artista conceituado.
Na prática, significa que se alguém pedir para criar uma obra com o estilo de um artista contemporâneo, a IA pode produzir algo mais próximo de Van Gogh, por exemplo. Segundo os estudiosos, na pior nas hipóteses, a IA vai criar um modelo híbrido que misture dois ou mais estilos, em vez de apenas copiar o modo de pintar daquele artista.
Como o Glaze funciona?
A sacada do Glaze é mais engenhosa do que complexa. O app separa as imagens do novo artista e usa uma IA de transferência de estilo para recriá-las com base em artistas famosos do passado.
O algoritmo então aplica uma parte de padrões usados pelas celebridades na imagem do desconhecido, o que cria padrões falsos captados pela IA. Como as alterações são mínimas, apenas ao nível de pixels, a maioria das pessoas não vai notar diferenças gritantes nas imagens.
“Infelizmente, o Glaze não é uma solução permanente contra o mimetismo da IA. A IA evolui rapidamente e sistemas como o Glaze enfrentam um desafio inerente de serem à prova de futuro. As técnicas que usamos para ocultar as obras de arte hoje podem ser superadas por uma contramedida futura, possivelmente tornando a arte protegida anteriormente vulnerável", diz o site do projeto.
Glaze é alvo de críticas
A "parte ruim" da técnica da Glaze é o prejuízo para a evolução das IAs geradoras de conteúdo artístico. Ao confundir algoritmos e minar a base de dados, ferramentas como o DALL-E e o Midjourney poderiam funcionar com deficiência.
Alguns defendem que os artistas não podem impedir a reprodução de suas obras, porque é disso que a arte é feita. Muitos pintores atuais foram influenciados em estilos e temáticas por gente do passado, então as IAs apenas estariam passando por um processo similar.
Outros dizem que existe um conservadorismo dos artistas, que querem tentar manter seu nicho intacto à tecnologia. "Se escritores precisam se reinventar para não serem substituídos pelo ChatGPT, porque os designers e pintores não podem fazer o mesmo?", reclamou um usuário no Twitter.
Fato é que ninguém gosta de ter seu trabalho plagiado, principalmente quando um terceiro começa a lucrar em cima disso. Mas essa parece ser uma questão muito mais complexa de se resolver, algo que aplicativo nenhum parece ser capaz de fazê-lo.
O Glaze tem uma versão Beta gratuita e disponível para Windows e MacOS. Os artistas interessados devem baixar o programa e usá-lo toda vez que for colocar seu trabalho na Internet, seja para exposição, seja para venda. Mais informações sobre e download do Glaze podem ser encontrados no site oficial da plataforma.
IAs canibais
Por falar em "clonagem", hoje (21), cientistas da Universidade de Stanford, também nos EUA, conseguiram criar uma IA chamada Alpaca a partir do ChatGPT e da LLaMA. Os estudiosos compraram os direitos de uso da base de dados da Meta e a API do ChatGPT para fundi-los em um sistema robusto de IA.
Isso poderia ser uma situação análoga ao roubo de dados? Como as Big Techs vão lidar quando mais desenvolvedores começarem a criar chatbots derivados e otimizados da sua solução, aquela que eles gastaram milhões de dólares para desenvolver? Parece que as IAs podem acabar sendo vítimas delas mesmo em um futuro não muito distante.