A vida imita a ficção: inteligência artificial deve prevenir crimes em breve

Por Jessica Pinheiro | 18 de Abril de 2018 às 09h42

Você certamente já deve ter ouvido falar ou até mesmo assistido a série televisiva Person of Interest ou o filme Minority Report – ou até mesmo pode ser lido a obra de nome homônimo escrita por Philip K. Dick que inspirou este último. Afinal, todas estas criações possuem uma temática em comum: a inteligência artificial sendo utilizada em prol da humanidade, mais especificamente para a prevenção de crimes.

O assunto não é exatamente uma novidade, já que é bastante abordada na ficção científica. Da mesma forma, não são poucas as tentativas de pesquisadores de tentarem transformar essa tecnologia em realidade.

Na realidade, os avanços com a inteligência artificial e derivados voltados para a estabilidade pública são notáveis à esta altura do campeonato, uma vez que a tecnologia em questão está em gradativa ascensão, fazendo parte de incontáveis componentes eletrônicos que são comumente utilizados pelas pessoas.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Exemplo disso são as assistentes virtuais capazes de expressar opiniões e preferências (muitas delas plenamente integradas a outros dispositivos que expandem o conceito e prática de casa conectada, tais como câmeras, modems, sistemas de automação, dentre outros), câmeras e wearables com reconhecimento facial embutido, e plataformas que oferecem serviços diversos, tais como a Uber, a Google, o Facebook, entre outros – sempre visando segurança e bem-estar dos usuários, e até mesmo entretenimento.

Além disso tudo, alguns testes estão sendo aplicados a sistemas de vigilância por meio de câmeras para impedir que atividades criminosas aconteçam. A ideia é exatamente como funciona na ficção científica, isto é: detectar os atos não quando estão em andamento, mas sim antes que de fato ocorram, de modo a prevenir a violência de modo geral.

Conheça a Cortica

A companhia israelense Cortica possui raízes profundas em segurança e pesquisa com inteligência artificial. Recentemente, eles formaram uma parceria na Índia com o Best Group para os dados de câmeras de circuito fechado de televisão (CFTV) em áreas públicas. Um dos objetivos desta ação é melhorar a segurança em locais com muitos transeuntes, tais como ruas da cidade, paradas de ônibus e estações de trem.

Em Londres e em Nova Iorque essa prática já foi empregada, e o reconhecimento facial e a equiparação com registros de pessoas físicas fazem parte da vigilância da cidade – tudo isso por intermédio de câmeras de vídeo. Todavia, a inteligência artificial da Cortica promete elevar este conceito a um novo patamar, já que sua tecnológica pretende identificar “anomalias comportamentais” — ou simplificando: sinais de que alguém está prestes a cometer um crime.

O software da companhia israelense é baseado em uma espécie de sistema de triagem de segurança militar e governamental, que tenta identificar terroristas monitorando pessoas em tempo real ao mesmo tempo em que procura por microexpressões nos rostos delas – ou seja, minúsculas contorções ou até mesmo maneirismos que podem revelar as intenções do indivíduo. Esses trejeitos e comportamentos, mesmo os mais simples ou bobos, podem enganar um olho humano, mas é difícil que passe despercebido por uma inteligência artificial.

A IA autônoma da Cortica em uma demonstração. (Imagem: Digital Trends)

A ideia é que a tecnologia da Cortica enfrente e supere desafios na identificação de objetos que não se encaixam em estereótipos já conhecidos. De acordo com Karina Odinaev, cofundadora e COO da companhia israelense, será necessário aplicar uma espécie de aprendizado não supervisionado, o que significa que a inteligência artificial poderá aprender da mesma maneira que um humano aprende, de modo que ela possa prosseguir por conta própria em uma situação fora dos padrões.

A verdade está lá fora?

Na verdade, está dentro. Afinal, para criar um software deste porte, a Cortica precisou se desviar um pouco dos clichês. Na prática, isso significa que a companhia não percorreu a rota de rede neural – um nome chique que se refere às probabilidades e modelos de computação, e não para a maneira como o cérebro humano funciona. Ao invés disso, a empresa israelense optou por apelar para a fonte de tudo: um segmento cortical do cérebro de um rato.

Os experimentos incluíam utilizar um pedaço de cérebro ex-vivo (fora do corpo), conectando-o posteriormente a um arranjo de microeletrodos. Somente assim foi possível estudar as diferentes reações que o córtex teve a estímulos externos; monitorando os sinais elétricos, com os quais os pesquisadores foram capazes de identificar grupos específicos de neurônios. Estes últimos, intitulados de cliques, por sua vez eram responsáveis por processar conceitos específicos. Desta etapa em diante, a Cortica construiu arquivos de assinatura e modelos matemáticos que poderiam simular os processos originais do cérebro.

Segundo a empresa, essa abordagem diferente para com a inteligência artificial permite um aprendizado avançado e transparente, uma vez que existe a possibilidade de a tecnologia ainda assim cometer um erro. Caso esse cenário ocorra, os programadores podem rastrear facilmente o problema ao arquivo de assinatura responsável pelo processo, que resultou em um julgamento errôneo. Para essa variação, um completo e novo treinamento precisaria ser aplicado à máquina para evitar que o equívoco ocorra novamente.

Estamos sob constante monitoramento através da tecnologia de um modo geral? (Imagem: Bloomberg)

A implicância de seu uso no futuro

A proposta prevê que a inteligência artificial desenvolvida pela Cortica será, inicialmente, utilizada na Índia pelo Best Group, uma companhia diversificada envolvida no desenvolvimento de infraestrutura e que também atua como fornecedor para clientes governamentais e de construção. O intuito é analisar os dados gerados por câmeras em locais públicos e melhorar a segurança – além, é claro, de estudar e identificar o andamento das situações.

Também é esperado que o software da Cortica alcance ainda mais precisão e praticidade no futuro, monitorando comportamentos e combinando as informações não apenas entre câmeras de vídeos, mas também com drones e satélites. Especula-se ainda que a inteligência artificial da empresa israelense poderá julgar diferentes tratamentos comportamentais de pessoas, incluindo civis, ex-criminosos e cumpridores vigentes da lei, tanto em localidades consideradas pacíficas quanto em áreas que podem ocorrer uma iminente hostilidade.

Tudo ótimo até aqui. Afinal, o uso do software poderia servir para evitar que vidas fossem perdidas em potenciais situações de perigo, ajudando a implementar leis que reforçariam as informações preditivas e a obrigatoriedade do cumprimento com a verdade e a justiça. Entretanto, essa tecnologia é passível de cair em mãos erradas. E por mãos erradas entenda que cibercriminosos não são os únicos concorrentes para a categoria, pois a inteligência artificial também poderia ser utilizada como uma forma de abuso e poder pelas autoridades – como, por exemplo, para extinguir disputas e interesses e prender pessoas antes que elas tenham a chance de protestar a respeito.

Durante uma exibição em Nova Iorque na última semana, a Cortica utilizou a inteligência artificial integrada a um carro autônomo. Na ocasião, o vice-presidente Patrick Flynn explicou que o foco da empresa é transformar o software em um serviço confiável, eficiente e preciso na classificação de dados. Todavia, o que os clientes fazem com sua criação não lhes diz respeito, esteja ela aplicada a um meio de transporte ou sendo usada como recurso pelo governo local ou pelos militares. “As políticas de decisão estão estritamente fora da área da Cortica”, argumentou.

Acima de tudo, a ideia é que a inteligência artificial da Cortica ajude a prevenir crimes, impedindo os atos antes que eles ocorram. (Imagem: ABC)

Privacidade x Segurança

Embora uma rede onipresente de webcams com um sistema de inteligência artificial integrado seja um passo deveras inovador para a estabilidade pública, do outro lado temos uma preocupação referente à privacidade e à liberdade pessoal dos indivíduos em jogo. Isolar-se, todavia, não é uma opção, uma vez que todo indivíduo precisa se relacionar com outras pessoas, seja para expressar uma opinião pessoal, compartilhar algum acontecimento ou ainda manifestar alguma necessidade.

No Brasil, especificamente, não apenas o Marco Civil da Internet teria sua criação em xeque, mas especialmente a Constitucional Federal de 1988 (artigo 5º, X), cuja definição diz que são invioláveis a intimidade, a vida privada, a honra e a imagem do indivíduo, assegurado o direito à indenização pelo dano material ou moral decorrente de sua violação.

Nos Estados Unidos, porém, mesmo com as revelações de Edward Snowden em 2013 sobre uma operação de vigilância massificada coloca em prática pela Agência de Segurança Nacional (NSA em inglês), muito pouco mudou desde então. De acordo com o especialista em segurança cibernética e membro do Centro Berkman Klein para Internet e Sociedade e do Centro Belfer para Ciência e Assuntos Internacionais da Harvard Kennedy School, Bruce Schneier, as pessoas estão cientes de que tipo de poder a tecnologia permite às autoridades, mas a Lei da Liberdade da grande potência americana apenas fez com que algumas alterações fossem atribuídas ao programa de coleta de dados do governo, então praticamente nada mudou.

Schneier ainda acrescenta que a vigilância é um modelo de negócios da Internet. “Todo mundo está sendo constantemente observado por muitas empresas, desde redes sociais como Facebook até provedores de celular. Esses dados são coletados, compilados, analisados ​​e usados ​​para tentar nos vender coisas”. Para o especialista, a questão é que a publicidade personalizada é a maneira como as empresas ganham seu dinheiro, e por causa disso grande parte da internet é gratuita para que seus usuários desfrutem dos serviços. “Somos o produto, não o cliente”.

No filme Minority Report, o policial Anderton (Tom Cruise) é acusado de um crime que - ainda - não cometeu, e precisa fugir e descobrir como e porquê o sistema de pré-crime de sua agência previu essa tragédia. (Imagem: 20th Century Fox)

Contudo, quando questionado se a vigilância deveria ser impedida, Schneier traz aspectos da filosofia para a conversa: “É uma questão de quanta manipulação permitimos em nossa sociedade”. O deslocamento desse pensamento corrobora com citações de pessoas famosas da indústria tecnológica, como Elon Musk, ou até mesmo com o falecido ativista da liberdade digital e fundador da Electronic Frontier Foundation, John Perry Barlow, que diz: “confiar no governo para proteger sua privacidade é como pedir a um voyeur para instalar suas persianas”.

A sensação de estarmos vivendo em um Big Brother é crescente, até porque muitos componentes eletrônicos possuem câmeras com inteligência artificial integrada. A Alexa da Amazon, os produtos para casa da D-Link, os sensores dos dispositivos móveis da LG, Apple e tantas outras fabricantes de smartphones são apenas alguns exemplos. Até mesmo um forno a vapor com webcam embutida da Electrolux será lançado este ano na Europa, apenas para aumentar o espectro de opções – e de monitorações.

A vida acima de tudo

Não se pode esquecer, entretanto, que o objetivo primário da sofisticada inteligência artificial autônoma da Cortica é melhorar a eficiência da segurança e, acima de tudo, salvar vidas. Imagine se esse software já estivesse implementado na sociedade como um todo. Será que nesse cenário o famigerado tiroteio causado pelo jovem Nikolas Cruz, de 19 anos, teria acontecido? Afinal, o Uber que ele pegou para chegar até a escola poderia identificar suas intenções através do recurso de observação de microexpressões.? O sistema poderia ter até mesmo alertado a polícia na ocasião para que ela se posicionasse na Marjory Stoneman Douglas High School e, assim, salvassem as vidas das 17 pessoas que morreram na tragédia.

Além disso, mesmo com os escândalos envolvendo justamente informações privadas de seus usuários, o Facebook iniciou testes com um software de inteligência artificial no final do ano passado visando identificar comportamentos suicidas entre os integrantes da comunidade e evitar que o pior aconteça.

Por fim, não apenas a área da criminologia pode se beneficiar com a inteligência artificial autônoma, mas também a da medicina. A World Anti-Doping Agency (WADA), por exemplo, pretende aplicar a tecnologia para detectar quais atletas estão fazendo uso de doping e espera que as agências possam desfrutar desse recurso nos próximos cinco anos. E protótipos de wearables com finalidade de tratamentos e recuperação também estão em desenvolvimento. No início do ano, a ZTE e a Qualcomm apresentaram ideias do gênero durante a CES 2018; e mods inteligentes da Motorola poderão ser usados para verificar a saúde do usuário, bastando estar conectado a um aparelho móvel.

Que a inteligência artificial autônoma é promissora, não há dúvidas, mas apenas o tempo dirá qual será o desdobramento de seu uso na sociedade. E você, qual a sua opinião a respeito da implementação desta ascendente tecnologia?

Fonte: Digital Trends, The Harvard Gazette, Gazeta do Povo, Sean Smith / LinkedIn

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.