Cientistas russos criam programa para identificar imagens adulteradas

Por Carlos Dias Ferreira | 09 de Agosto de 2018 às 17h45

Como um contraponto às notícias falsas, imagens adulteradas representam hoje uma verdadeira pedra no sapato para vários setores da sociedade – de empresas de seguro a órgãos governamentais e instituições científicas. Uma das respostas a essa tendência perniciosa surgiu recentemente na forma de uma ferramenta que promete identificar adulterações em até 100% dos casos.

Criado por pesquisadores russos da Universidade de Samara, o novo algoritmo traz como principal diferencial o fato de tornar desnecessária a comparação com objetos/arquivos originais. “A abordagem utilizada parte do princípio de que nenhuma informação sobre a fonte é conhecida”, afirmou o professor assistente do departamento de Geoinformática e Segurança da Informação, Andrey Kuznetsov, em entrevista ao site oficial da universidade.

Dessa forma, a ferramenta pode ser particularmente útil para identificar documentos adulterados em órgãos públicos, ou mesmo algumas áreas em que qualquer erro de avaliação pode gerar resultados dramáticos. “Se nós considerarmos, por exemplo, imagens espaciais ou dados de sensoriamento remoto – que são utilizados inclusive pela indústria de defesa -, o preço de um equívoco se torna bastante alto”, exemplifica o pesquisador.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Algoritmo desenvolvido pela Universidade de Samara pode identificar duplicações, distorções e inclusão de elementos em até 100% dos casos - sem precisar acessar o arquivo original. (Foto: reprodução/Universidade de Samara).

Janelas de análise

Basicamente, o que o programa da instituição faz é separar uma imagem em porções menores, a fim de analisá-las individualmente em busca de qualquer tipo de anomalia, de duplicações a distorções; qualquer elemento que tenha sido acrescentado ao objeto de origem.  “Esse algoritmo produz alguns resultados, identificando áreas em que podem ter ocorrido alterações (...) dentro de uma enorme matriz numérica”, explica Kuznetsov.

Trata-se, portanto, de uma pequena “janela” que varre sequencialmente todas as porções da imagem em busca de fraudes. “Se, por exemplo, for uma imagem de 1000 x 1000 pixels, o algoritmo vai avaliar porções isoladas de 10 x 10 pixels.” Ao final, todas as regiões individuais são comparadas em busca de indícios. “Caso uma porção seja idêntica a outra, por exemplo, há uma grande chance de que tenha ocorrido duplicação.”

Já a avaliação propriamente dita se baseia em comparações sucessivas de vários elementos em cena. Nisso se incluem, por exemplo, variações de sombra, baseadas na análise das fontes de luz; ou se determinado setor foi completamente transferido de outra imagem. “Nós verificamos a direção dos raios solares no momento em que a foto foi tirada, comparando então com os pontos menos iluminados do registro.” O programa também identifica a aplicação sucessiva de filtros sobre uma fotografia em estado bruto.

Programa divide a imagem original em "janelas"- porções menores que são analisadas individualmente e também comparadas umas com as outras, evidenciando imcompatibilidades de iluminação ou indícios de conteúdo duplicado. (Imagem: reprodução/Walt Disney Company).

Precisão e tempo de análise podem variar

Já o tempo de operação depende de quão “requintada” tenha sido a alteração. De acordo como pesquisador, detecções mais simples levam apenas alguns segundos, enquanto que os casos mais difíceis podem tomar mais de um minuto. “Algoritmos complexos precisam de mais tempo para operar, mas conseguem destacar objetos distorcidos na imagem – aqueles que resultam não apenas do ‘copiar e colar’, mas da adição de fatores de maior complexidade.”

Além do tempo de operação necessário, também a precisão dos resultados emitidos pelo algoritmo pode variar sensivelmente. Conforme disse Kuznetsov, no caso de uma transferência simples quaisquer alterações são identificadas em 100% dos casos. Já quando são áreas inteiras falseadas, essa porcentagem cai para cerca de 90%.

Mas esses valores devem melhorar em breve, seguindo os saltos constantes dos recursos computacionais e os avanços científicos. “A cada ano, novos algoritmos e implementações são adicionados”, atesta o pesquisador, concluindo que “não há um fim; sempre haverá algo novo”. Uma faca de dois gumes que também pode beneficiar falsários, é verdade. Mas, ainda assim, uma boa notícia.

Fonte: Samara University

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.