Minority Report real: sistema de IA para prever crimes falha no Reino Unido

Por Claudio Yuge | 11 de Agosto de 2020 às 18h10
Dreamworks

Em Minority Report, livro de Philip K. Dick adaptado para o cinema por Steven Spielberg em 2002, o personagem de Tom Cruise, John Anderton, é um policial que usa um sistema capaz de prever crimes com precisão. E tudo começa a desandar quando o sistema que antevê ações ilegais projeta um assassinato que o próprio Anderton vai cometer. O avanço da inteligência artificial (IA) nos últimos anos nos permite reconhecer padrões de forma tão vasta e minuciosa que autoridades no Reino Unido, entre outras no mundo todo, quis usá-la para criar algo parecido com o que vimos em Minority Report. E, assim como na Sétima Arte, o experimento não deu certo na vida real, devido a questões éticas.

Conhecido como Most Serious Violence (MSV) — algo como “Violência Mais Grave” —, o sistema faz parte do projeto National Data Analytics Solution (NDAS) do Reino Unido, financiado pelo governo com um investimento em torno de US$ 13 milhões nos últimos dois anos. O MSV foi criado para prever se as pessoas cometeriam seu primeiro crime violento com uma arma ou faca nesse período, a partir de uma “pontuação criminal”.

Para chegar a esse escore, foram coletados dados históricos sobre 2,4 milhões de pessoas do banco de dados de West Midlands e de 1,1 milhão de West Yorkshire, ambos municípios da Inglaterra — entre os registros estavam crimes, custódia, relatórios de inteligência e outras informações da rede federal Police National Computer. Quanto maior a pontuação, maior seria a probabilidade dos indivíduos cometerem novas atividades ilegais.

Reprodução/PxFuel

O MSV identificou "mais de 20" indicadores que se acreditava serem úteis para avaliar o quão arriscado poderia ser o comportamento futuro de uma pessoa. Isso inclui idade, dias desde o primeiro crime, conexões com outras pessoas nos dados usados, a gravidade desses delitos e o número máximo de menções de “faca” em relatórios de inteligência vinculados — dados de localização e etnia não foram incluídos. Muitos desses fatores, diz a apresentação, foram ponderados para dar mais prevalência aos dados mais recentes.

Parecia bonito na teoria, mas, na prática…

Embora não hajam detalhes completos sobre como essa “pontuação criminal” era exatamente rotulada em cada indivíduo, as simulações iniciais do NDAS mostraram resultados promissores. De cada 100 pessoas com escore alto, 54 delas cometeriam crimes com armas e facas em West Midland. A taxa foi ainda maior em West Yorkshire, de 74%. Mas, quando o MSV começou a operar na vida real, no começo deste ano, a equipe encontrou um grande erro, que derrubou esses números.

Não há explicações minuciosas sobre os critérios desse escore, mas o MSV foi reprovado pelo Comitê de Ética Policial de West Midlands, responsável por examinar o trabalho do NDAS, bem como os próprios desenvolvimentos técnicos da força policial. “Foi encontrado um erro de codificação na definição do conjunto de dados de treinamento, o que tornou a declaração do problema atual do MSV inviável”, diz um resumo do NDAS publicado em março. Um porta-voz do projeto afirmou que o erro foi um problema de ingestão de dados descoberto durante o processo de desenvolvimento. Nenhuma outra informação mais específica foi divulgada.

Reprodução/PxFuel

Para violência grave com arma ou faca, a precisão do sistema caiu para algo entre 14% e 19% para a polícia de West Midlands e ficou entre 9% e 18% em West Yorkshire. Após uma revisão, o NDAS descobriu que seu sistema era mais preciso quando todos os critérios iniciais foram removidos. Ou seja, a performance original foi exagerada: na melhor das hipóteses, o sistema pode alcançar exatidão de 25% a 38% para a polícia de West Midlands e 36% a 51% a de West Yorkshire.

Que lição aprendemos com isso?

Todos os órgãos envolvidos no projeto concordaram que a falta de precisão do MSV o torna inviável e o projeto foi descontinuado. Contudo, o que foi pesquisado ainda pode ser aproveitado de outras formas. Em uma frente semelhante, autoridades vêm usando aprendizado de máquina para detectar escravidão moderna, movimento de armas de fogo e diferentes tipos de crime organizado. A diferença é que, em vez de tratar esses projetos como um sistema que será o “juiz”, eles se encaixariam na chamada de “inteligência aumentada” — como ferramentas complementares de investigação e tomada de decisões em relatos de violência grave.

E mais: esse experimento mostra que outras plataformas atualmente em uso precisam também de revisão, como o sistema automatizado de avaliação de vistos do próprio Ministério do Interior do Reino Unido, que usava a nacionalidade de uma pessoa como uma informação determinante para seu status de imigração. Após alegações de que apresentava traços de racismo estrutural, foi desativado no começo da semana.

Fonte: Wired  

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.