Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Distrito chinês usa inteligência artificial como "promotora" para acusar pessoas

Por| Editado por Douglas Ciriaco | 28 de Dezembro de 2021 às 19h00

Link copiado!

BrianAJackson/Envato
BrianAJackson/Envato

Pesquisadores da China desenvolveram um “promotor” de inteligência artificial (IA) capaz de acusar, com mais de 97% de precisão, pessoas por crimes cometidos . Segundo seus inventores, o sistema pode abrir um processo com base na descrição verbal de um caso envolvendo supostos criminosos.

A máquina distópica — digna de filmes de ficção científica — foi construída e testada pela Procuradoria Popular de Xangai no distrito de Pudong, o maior e mais movimentado Ministério Público da China. A ideia é reduzir a carga de trabalho dos promotores de carne e osso, permitindo que eles se concentrem em tarefas mais complicadas.

“O sistema de inteligência artificial pode substituir os promotores no processo de tomada de decisão até certo ponto. A ferramenta pode avaliar a força das evidências, as condições para uma prisão e o quão perigoso um suspeito é considerado”, explica o diretor do laboratório de big data e gerenciamento de conhecimento da Academia Chinesa de Ciências, Shi Yong, autor principal do projeto.

Continua após a publicidade

Treinamento

A "IA promotora" foi treinada com base em mais de 17 mil casos reais ocorridos entre 2015 e 2020. Com esse repertório, ela é capaz de identificar e apresentar queixas pelos oito crimes mais comuns de Xangai, como fraude de cartão de crédito, operação de jogos de azar, lesão corporal, roubo e “provocação de problemas” — termo comumente usado para acusar dissidentes do governo chinês.

Segundo seus idealizadores, em pouco tempo a máquina poderá reconhecer mais tipos de crimes e até registrar acusações contra suspeitos. Para que isso ocorra, basta uma atualização em sua base de dados e o aprimoramento do sistema de inteligência artificial que identifica e qualifica os casos conforme as leis do país.

Continua após a publicidade

“Tomar tais decisões exigiria que uma máquina identificasse e removesse qualquer conteúdo que fosse irrelevante para um crime, sem alterar as informações úteis. A IA também precisaria converter a linguagem humana em constante mudança em um formato matemático ou geométrico padrão que um computador pudesse entender”, acrescenta Yong.

Perda de autonomia

Segundo um promotor da cidade de Guanghzhou, no sul da China, que preferiu não se identificar, muitos colegas humanos estão relutantes com a possibilidade de ter um computador interferindo em seus trabalhos. Outro problema é que a IA poderia abrir uma acusação com base apenas em sua experiência anterior, sem prever a reação do público diante de um caso de grande repercussão.

Continua após a publicidade

O sistema poderia até ajudar na detecção de um erro processual, mas seria ineficiente na tomada de decisões, de acordo com o jurista. Também existe o temor de que o promotor virtual não consiga acompanhar os padrões sociais em mudança e que possa ser transformado em arma por um estado repressor.

“O uso de IA para apresentar acusações é preocupante. A precisão de 97% pode ser elevada do ponto de vista tecnológico, mas sempre haverá a possibilidade de erro. Quem vai assumir a responsabilidade quando isso acontecer? O promotor, a máquina ou o projetista do algoritmo?”, questiona o promotor.

Fonte: South China Morning Post