Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Descubra se seu rosto foi usado em apps de reconhecimento biométrico

Por| 01 de Fevereiro de 2021 às 22h40

Link copiado!

gemalto
gemalto

O norte-americano Brett Gaylor, hoje em seus 43 anos de idade, resolveu usar a plataforma Flickr (lembra dela?) para armazenar as fotos de sua lua de mel em 2006. Na época, ele não se importou muito com o fato de que as imagens seriam disponibilizadas sob a licença Creative Commons — que basicamente exime qualquer pessoa de pagar-lhe direitos autorais e possibilita a livre reprodução daquele conteúdo para fins não-lucrativos.

Hoje, Gaylor descobriu que sua decisão não foi muito muito feliz. Os rostos dele, de sua esposa e de quaisquer outros civis que apareciam nos retratos foram utilizados para treinar algoritmos de reconhecimento facial sem a sua devida autorização. Tal descoberta só foi possível graças ao Exposing.ai, um serviço gratuito que lhe permite descobrir se as suas fotografias do Flickr acabaram caindo em alguma base de dados obscuras de rostos.

A plataforma foi criada pelo artista alemão Adam Harvey em parceria com Liz O’Sullivan, diretora do Projeto de Fiscalização de Tecnologias de Vigilância (ou Surveillance Technology Oversight Project), um grupo de ativismo que advoga os direitos humanos e de privacidade. Segundo Liz, a ideia é mostrar para as pessoas que “alguns de seus momentos mais íntimos viraram armas”.

Continua após a publicidade

O Exposing.ai é muito simples — basta informar seu nome de usuário do Flickr, uma hashtag específica ou a URL de uma fotografia. O serviço indicará caso algum conteúdo apareça em seis datasets diferentes: DiveFace, FaceScrub, IJB-C, MegaFace, PIPA e VGG Face. Todos esses bancos são de código aberto, mas passaram a ser incorporados em soluções profissionais de reconhecimento facial.

De longe, o MegaFace é o mais “bem-sucedido” deles, tendo coletado rostos de 3,5 milhões de imagens do Flickr. Ele foi criado por professores da Universidade de Washington em 2015 para fins acadêmicos, mas já foi baixado mais de 6 mil vezes; e não pense que tais downloads foram efetuados por alunos. De acordo com investigações do The New York Times, diversas autoridades e empresas privadas embutiram a base de dados em suas soluções.

Isso inclui a Northrop Grumman, fornecedora de serviços de segurança e inteligência dos Estados Unidos; In-Q-Tel, braço de investimentos da Agência Central de Inteligência; a ByteDance, criadora do TikTok e até mesmo a Megvii, companhia chinesa de vigilância. Isso significa que aquelas singelas fotos que você postou anos atrás no Flickr podem ser usadas atualmente para rastrear minorias asiáticas ou para finalidades policiais.

Continua após a publicidade

Harvey e O’Sullivan afirmam que é necessário a criação de legislações específicas que proíbam a coleta desenfreada de fotografias para o treinamento de sistemas de inteligência artificial e reconhecimento facial. “Nós precisamos desarticular isso o mais rápido possível — antes que eles causem ainda mais prejuízos”, afirmou o artista.

Fonte: The New York Times, Exposing.ai