Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Entenda como a inteligência artificial do Google classifica imagens

Por| 14 de Outubro de 2019 às 21h37

Link copiado!

Pixabay
Pixabay
Tudo sobre Google

Se você já sentiu a pressão de selecionar "todos os quadrados com faixa de pedestres" e ficou em pânico pensando se clicava ou não naquela imagem que tinha só a pontinha de uma faixa de pedestres, provavelmente também já se perguntou como funcionam esses classificadores de imagem. Em uma tentativa de tornar as decisões da inteligência artificial mais transparente, uma equipe do Google recentemente explorou um modelo de aprendizado de máquina chamado Automated Concept-Based Explication (ACE), que extrai automaticamente os conceitos visuais "humanamente significativos".

O ACE segmenta imagens com várias resoluções para capturar diferentes níveis de textura e objetos. Para testar o ACE, a equipe utilizou o modelo classificador de imagens Inception-V3 do Google. Eles observam que os conceitos marcados como importantes tendem a seguir a intuição humana — por exemplo, que um logotipo da polícia é mais importante para detectar uma van da polícia do que o asfalto no chão. Nem sempre foi assim, no entanto. Em um exemplo menos óbvio, o conceito mais importante para prever imagens de basquete acabou sendo o uniforme dos jogadores, e não a bola de basquete.

Os pesquisadores admitem que o ACE não está nem perto de ser perfeito, mas luta para extrair significativamente conceitos excepcionalmente complexos ou difíceis. Eles acreditam que as ideias que ele fornece sobre as correlações aprendidas dos modelos podem promover um uso mais seguro do aprendizado de máquina.

Continua após a publicidade

“Verificamos o significado e a coerência por meio de experimentos em humanos e validamos ainda que eles realmente transmitem sinais importantes para a previsão. Nosso método agrupa automaticamente os recursos de entrada em conceitos de alto nível; conceitos significativos que aparecem como exemplos coerentes e são importantes para a previsão correta das imagens em que estão presentes”, escreveram os pesquisadores. "Os conceitos descobertos revelam insights sobre correlações potencialmente surpreendentes que o modelo aprendeu".