Publicidade

Apple confirma que vai monitorar usuários em busca de imagens de abuso infantil

Por| Editado por Douglas Ciriaco | 06 de Agosto de 2021 às 10h34

Link copiado!

Rubens Eishima/Canaltech
Rubens Eishima/Canaltech

A Apple anunciou um conjunto de ferramentas poderoso para proteger crianças de abuso sexual a partir de iPhones, iPads e Macs, nesta quinta-feira (5). Os dispositivos da marca serão carregados com mecanismos de varredura automática de mídias e mensagens da violência contra menores de idade, enquanto facilitam o contato das autoridades com o conteúdo pesquisado pela Siri.

A maior, e talvez mais impactante novidade, é a detecção automática de mídias com conteúdo relacionado a abuso sexual infantil (em inglês, conhecido pelo acrônimo CSAM, de “Child Sexual Abuse Material”). Cada aparelho Apple compatível terá mecanismos para avaliar o conteúdo de mídias salvas no iCloud e, se uma grande quantidade desse material for encontrada, a atividade será denunciada à Apple.

Continua após a publicidade

Sempre que uma foto é levada ao iCloud, uma tecnologia criptográfica chamada interseção de conjuntos privados (PSI) faz um cruzamento entre os dados da imagem e um conjunto de hashes de material ilegal obtidos do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA.

Se houver uma correspondência, o resultado não é revelado ao usuário nem à Apple. Contudo, neste caso é criado um voucher de segurança criptográfico (ainda secreto); ee esses vouchers acumularem em uma certa quantidade (não revelada pela Maçã), o material é encaminhado à fabricante, que fará uma avaliação humana sobre o conteúdo. Caso o CSAM seja confirmado, a conta do usuário é suspensa e ele é denunciado em relatório ao NCMEC.

A pessoa acusada ainda pode recorrer e ter sua conta de volta, mas não está claro se a denúncia será desfeita caso seja constatado um engano. Primeiramente, o recurso atuará somente nos Estados Unidos e não afetará mídias salvas exclusivamente no dispositivo.

A Apple pode avaliar qualquer coisa — e isso é um problema

Continua após a publicidade

Se a Maçã pode identificar material pornográfico de menores de idade, é fato que ela consegue monitorar qualquer outro segmento. O problema é tão grande que até Edward Snowden, famoso pode divulgar detalhes dos programas de vigilância do governo dos EUA, alertou que “a Apple está lançando um programa de monitoramento massivo para o mundo inteiro”.

“Não se engane: se eles conseguem encontrar pornografia infantil hoje, conseguem escanear qualquer coisa amanhã”, critica Snowden. Seu alerta não foi o único (nem o primeiro), já que ontem (5), o professor especializado em criptografia Matthew Green também apresentou seus contrapontos sobre os mecanismos.

Continua após a publicidade

Mensagens protegidas

Outra forma comum de abuso infantil acontece por mensagens, e a Apple tentará minimizar essa alternativa. Se a conta de uma criança pertence a um grupo familiar no iCloud, mídias com conteúdo sexual explícito serão embaçadas ao serem recebidas, enquanto tentativas de envios são interrompidos por alertas.

Caso a criança queira ver o conteúdo omitido (o que é possível a partir do botão “ver foto”), uma notificação será enviada aos responsáveis do grupo familiar. Quando é o menor de idade que decide enviar a foto, ela receberá um aviso para repensar a ação e, se mesmo assim prosseguir, os pais também ficam sabendo.

Continua após a publicidade

Novamente, a Apple utiliza mecanismos que rodam dentro do dispositivo para avaliar as imagens (enviadas e recebidas). Portanto, o iMessage continua equipado com criptografia de ponta a ponta e, assim, nem a Apple tem acesso ao material.

Contato das autoridades sempre à mão

Para complementar o recebimento de avisos, a Apple também quer encurtar os meios de contato para as autoridades. A Siri e o buscador nativo levam o usuário que pesquisa assuntos relacionados a abuso sexual de menores direto para sites de denúncias. Além disso, pessoas que apresentam interesse repentino sobre o tópico também serão notificadas.

Continua após a publicidade

“O Siri e a Pesquisa também são atualizados para intervir quando os usuários realizam pesquisas para consultas relacionadas a conteúdo de abuso sexual de menores. As intervenções explicarão aos utilizadores que o interesse neste tópico é prejudicial, problemático e fornecerá meios de contato de parceiros para obter ajuda neste assunto”, descreve a Apple.

Todas as novidades chegarão a iOS 15, iPadOS 15 e macOS Monterey. Apesar de inicialmente serem exclusivas dos EUA, elas devem ser expandidas para mais países com o tempo.

Fonte: Apple