Apple sabia que pornografia infantil era um problema em seus apps desde 2020

Apple sabia que pornografia infantil era um problema em seus apps desde 2020

Por Igor Almenara | Editado por Claudio Yuge | 20 de Agosto de 2021 às 19h20
Imagem: Divulgação/Apple

No início de agosto, a Apple anunciou novas medidas de segurança para conter a circulação e posse de Material de Abuso Sexual de Crianças (CSAM, na sigla em inglês). A comunidade especializada em segurança e privacidade prontamente se manifestou contra a novidade, que sujeita todo e qualquer usuário de dispositivo Apple a um monitoramento constante de mecanismos automatizados.

A proliferação de conteúdo relacionado a pedofilia, porém, parece ser um problema antigo no ecossistema Apple. Conforme revela um papo entre executivos de áreas de segurança da Apple, Eric Friedman e Herve Sibert, a companhia sabia que seu aplicativo de mensagens, o iMessage, servia como uma grande plataforma para a circulação de material ilegal.

“O foco do Facebook é sobre confiança e segurança (contas fakes, etc). Em privacidade, eles vacilam”, iniciou Eric Friedman. “Nossas prioridades são o oposto. O que faz de nós a melhor plataforma para distribuir pornografia infantil, etc”, complementou o executivo.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Na mesma conversa, Friedman compartilha o que seria um slide de uma apresentação interna que mostram recursos de apps da companhia e seus principais defeitos. A tabela associa a App Store e a seção “Platform” (que inclui o iMessage) ao problema “Child predator grooming” (“aliciadores de menores”, em tradução livre) sem mais detalhes.

A troca de mensagens entre os executivos aconteceu em fevereiro de 2020, sugerindo que as medidas para proteção de crianças da Apple estão nos planos da empresa, pelo menos, desde o início do ano passado. Os mecanismos de monitoramento devem ser incluídos em todos os dispositivos da companhia logo na próxima grande atualização de sistemas operacionais — no iPhone, o tão aguardado iOS 15, cuja estreia deve acontecer em outubro.

Monitoramento fere privacidade

Para conter o compartilhamento de CSAM, a Apple fará um cruzamento entre dados de imagens armazenadas no iCloud e um conjunto de hashes de material ilegal obtido do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA. Enquanto no iMessage, mecanismos alimentados por aprendizado de máquina analisarão mídias enviadas ou recebidas por crianças e censurará o conteúdo imediatamente. O menor de idade ainda poderá conferir o material, mas uma notificação será encaminhada aos responsáveis vinculados ao perfil.

Para conter a reação negativa às adições, a Apple lançou uma série de documentos para esclarecer pontos mais criticados. A companhia alega que o sistema é praticamente livre de erros e que governo nenhum poderá expandir a base de comparação para outras categorias. Além disso, a fabricante afirma que o sistema será transparente e auditável.

As respostas não foram suficientes para conter manifestações contrárias nem de funcionários da companhia, que se revoltaram contra a adição em conversas internas. Especialistas de segurança também não ficaram satisfeitos com as justificativas, já que elas não satisfazem suas principais críticas.

Fonte: The Verge, DocumentCloud

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.