Publicidade

Pesquisadores encontram novas falhas em sistema da Apple contra abuso infantil

Por| Editado por Claudio Yuge | 11 de Novembro de 2021 às 21h20

Link copiado!

Imagem: Onur Binay/Unsplash
Imagem: Onur Binay/Unsplash

Um grupo de pesquisadores do Imperial College, de Londres, apresentou nesta semana uma maneira simples de burlar o CSAM (sigla em inglês para material de abuso sexual infantil), sistema da Apple voltado à análise e descoberta automática de imagem de pedofilia em seus dispositivos e sistemas. De acordo com os especialistas, bastaria usar um filtro simples para burlar o método de detecção utilizado pela Maçã, sem que a imagem resultante tivesse mudanças visuais perceptíveis.

A manipulação acontece no hash, uma espécie de identificador numérico que acompanha os arquivos. A proposta do CSAM, também chamado de NeuralHash, é comparar tais sequências com dados compartilhados por organizações oficiais ou que lutem contra o abuso infantil; na maioria dos casos, a privacidade dos usuários não seria atingida, mas quando coincidências fossem encontradas, as imagens seriam submetidas a avaliadores humanos, de forma a confirmar seu caráter ilegal.

O tema já era motivo de preocupação para ativistas da liberdade e sigilo individual e ganhou contornos de ineficácia com a apresentação do trabalho dos pesquisadores britânicos durante o simpósio de segurança USENIX, realizado em agosto. Usando um filtro de hash, os especialistas foram capazes de burlar o sistema da Apple 99,9% das vezes, enquanto as imagens resultantes tinham diferenças visuais quase imperceptíveis.

Continua após a publicidade

A medida, apontam os estudiosos, exige mudanças drásticas no software e ampliaria ainda mais seus problemas de privacidade. Na visão deles, seria necessário aumentar o escopo de similaridades para compensar a filtragem, o que poderia levar a falsos positivos, ou criar um sistema de pontuação em que os usuários receberiam mais ou menos atenção de acordo com o total de coincidências, também levando a dificuldades de aplicação prática. A conclusão é que, como funcionam hoje, tais algoritmos simplesmente não podem ser usados em estratégias que envolvem o acionamento de autoridades e avaliações criminais.

O estudo do Imperial College é o segundo, de grande porte, a apontar a ineficácia do CSAM. Em agosto, o especialista em criptografia Ashuhariet Ygvar publicou no GitHub os resultados da engenharia reversa no sistema, apontando que ele é propenso a identificar hashes semelhantes, levando imagens não relacionadas ao abuso infantil para verificação manual. Com isso, afirmou, seria possível manipular o sistema de identificação para capturar também conteúdos não relacionados à pedofilia, servindo como arma política para caçar dissidentes ou atacar oponentes ideológicos.

Entre estudos como estes e o posicionamento de entidades em prol da privacidade, a Apple anunciou em setembro que adiaria a adoção do CSAM. A empresa deixou claro que não descartou a ideia e que pretende a aplicar no ano que vem, mas que entendeu o feedback à proposta e pretende aprofundar os estudos antes de aplicar o mecanismo a seus sistemas operacionais.

Fonte: Bleeping Computer