Apple reforça que rastreamento no iCloud mira apenas imagens de abuso infantil

Apple reforça que rastreamento no iCloud mira apenas imagens de abuso infantil

Por Igor Almenara | Editado por Douglas Ciriaco | 09 de Agosto de 2021 às 12h27
Imagem: AltumCode/Unsplash

Na semana passada, a Apple apresentou uma série de mecanismos que serão embutidos em seus dispositivos para combater a posse e o compartilhamento de Material de Abuso Sexual de Crianças (CSAM, na sigla em inglês). iPhones, iPads e Macs seriam carregados com recursos de análise visual capaz de identificar mídias comprometedoras a partir do backup no iCloud.

Naturalmente, a prática foi alvo de críticas de especialistas em segurança — e até Edward Snowden se juntou às críticas. A maior preocupação da comunidade é que, uma vez capaz de monitorar conteúdo relacionado a pedofilia, a Apple consiga modificar seu sistema para monitorar outros elementos de um dispositivo, o que abriria brechas sinistras se usado por governos autoritários, por exemplo.

A varredura compara as fotos armazenadas no iCloud com um conjunto de hashes de CSAM e, se acumuladas em grande quantidade, um relatório é enviado à Apple para análise manual (Imagem: Reprodução/Apple)

Em uma nova publicação na seção de perguntas e respostas lançada nesta segunda-feira (9), a companhia tentou abafar as principais polêmicas da sua ferramenta. “Sejamos claros: essa tecnologia é limitada à detecção de CSAM armazenado no iCloud e não atenderemos pedidos de nenhum governo para expandi-la”, assegura a Apple.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

A fabricante diz que há proteções integradas ao sistema que impedem que ele seja utilizado para outros fins. Uma dessas travas seria a base de dados para a comparação, obtida através do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos Estados Unido. Segundo a marca, outras categorias jamais seriam adicionadas ao mecanismo.

A proteção local também é capaz de identificar fotos recebidas ou enviadas que possam conter material ilegal (Imagem: Reprodução/Apple)

Quanto aos falsos positivos, a Apple apenas diz que seu sistema é “construído para ser muito preciso” e que a chance de a varredura emitir um falso positivo é “menor que um em 1 trilhão” ao ano. Além disso, mesmo se o sistema emitir o alerta à companhia, uma revisão humana seria aplicada, reduzindo a possibilidade de erro e adicionando melhor capacidade de interpretação de contexto à equação.

Não foi tão convincente quanto deveria

As respostas da Apple, apesar de tentarem esclarecer cada um dos pontos mais críticos do mecanismo, falham em aliviar a barra da fabricante. A companhia parece não ter entendido que mesmo com um software “limitado” neste primeiro momento, bastaria uma ordem da Justiça (ou vontade própria) para que a função fosse ampliada para mais categorias.

E o histórico da Maçã não colabora: a Apple já abriu mão de funções importantes a pedido de governos locais. Na China, a App Store tem um catálogo de apps totalmente diferente, com aplicativos conhecidos indisponíveis para download. Em países em que videochamadas criptografadas são proibidas, a companhia também não disponibiliza o FaceTime, sua plataforma de comunicação nativa.

A grande questão também está no funcionamento constante e compulsório do monitoramento. Funcionar de forma local, sem depender de internet, pode ser uma característica “positiva” para privacidade, mas garante atuação ininterrupta à varredura, que consegue monitorar usuários a todo momento assim que o dispositivo com iOS 15 for ligado.

Quase um backdoor

Se parar para pensar, o mecanismo tem semelhanças com malwares do tipo backdoor, que permitem o acesso discreto ao sistema. O usuário não tem clara ciência de que ele está ali, mas está sendo constantemente vigiado por uma ferramenta cujos parâmetros não foram disponibilizados nem mesmo devem ser de fácil compreensão.

“Mesmo que seja um backdoor totalmente documentado, cuidadosamente elaborado e com escopo restrito, ainda é um backdoor”, alerta a Electronic Frontier Foundation (EFF). “Já vimos essa missão em ação antes. Uma tecnologia originalmente desenvolvida para digitalizar imagens de abuso sexual infantil foi reaproveitada para criar um banco de dados de conteúdo ‘terrorista’ em que empresas poderiam contribuir e acessar para banir o material”, complementa o site.

“Tudo o que seria necessário para ampliar o backdoor da Apple seria a expansão dos parâmetros de aprendizado de máquina para procurar tipos adicionais de conteúdo, ou um ajuste nos sinalizadores de configuração para verificar, não apenas as contas de crianças, mas de qualquer pessoa”, explica a EFF.

Por enquanto, ainda há tempo para a Maçã recuar na implementação da varredura automática, mas isso só deve acontecer se a companhia for confrontada por mais especialistas e pelos próprios consumidores.

Fonte: Apple, The Verge, EFF

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.