Facebook cria time interno para burlar seus próprios sistemas de IA

Por Wagner Wakka | 27 de Julho de 2020 às 21h00
Wagner Wakka/Canaltech
Tudo sobre

Facebook

Saiba tudo sobre Facebook

Ver mais

O Facebook tem uma série de times, cuja função é ser uma ameaça para a sua própria plataforma. Não que a empresa esteja querendo se autossabotar, só que ela conta com equipes para tentar burlar seus próprios sistemas, a fim de garantir que não há brechas.

Tal mecanismo é muito comum em segurança, mas começou a ser usado pelo Facebook também para inteligência artificial (IA). A história nasce no Instagram, com filtros da empresa para detectar de forma autônoma publicações de nudez explícita na rede social.

O que a companhia percebeu é que toda vez que uma inteligência era treinada para identificar uma nova forma de burlá-lo, rapidamente os usuários criavam um jeito de passar pela segurança do Instagram. Ou seja, era preciso antecipar isso.

Assim, o Facebook lançou o chamado “red team” ("time vermelho", em tradução literal), voltado somente para tentar burlar o sistema e antecipar estas ações e encontrar brechas para filtros tanto no Instagram quanto no próprio Facebook.

A companhia está trabalhando com uma empresa MITRE Corporation, que levanta vulnerabilidades em IAs. Ela é voltada para descobrir falhas como filtros ou modos de criar uma imagem para enganar um sistema de IA, fazendo-o categorizar uma arma como se fosse um helicóptero, por exemplo.

A reportagem da Wired conversou com o líder do red team no Facebook, Cristian Canton, e mostrou outros exemplos que vão desde tornar uma foto invisível para detecção, até colocar recursos em banco de dados para dificultar o treinamento de inteligências artificiais.

Um dos experimentos que o time fez envolveu até atores para refinar o programa. Eles juntaram 4 mil deles para fazer vídeos com uma alta gama de variedades de gêneros, tom de pele e etnias. O objetivo, depois era criar vídeos misturando os rotos reais com versões em deepfakes destes mesmos atores e desafiar engenheiros de software a tentar identificar quais eram os falsos. O resultado, publicado pela empresa, foi de 65% de acurácia no melhor deles.

“Não há formas de medir o progresso, enquanto ele acontece. Algumas pessoas estão dizendo que já trabalhando com sistemas que reconhecem deepfakes com 99% de acurácia. Isso não é verdade”, informou à Wired.

A postura não está sendo adotada somente para encontrar brechas em filtros para fotos. Na última semana, o Facebook também anunciou o WW, uma espécie de sistema paralelo de rede social da empresa somente para testes.

Dentro dela, a companhia treinou uma série de inteligências artificiais para se comportarem como um usuário nocivo. Com isso, a companhia também consegue prever como pessoas mal intencionadas por agir e criar mecanismos para impedir que avancem na rede social.

Fonte: Wired

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.