Estudo de ONG diz que Amazon, Microsoft e Intel colocam mundo em risco com IA

Por Felipe Ribeiro | 22 de Agosto de 2019 às 11h45
US Army

A ONG holandesa NGO Pax fez um levantamento, no mínimo, curioso. Ela classificou 50 empresas levando em conta alguns critérios para avaliar suas respectivas participações em projetos com inteligência artificial (IA) que sejam "letais", ou seja, na fabricação de robôs ou armas autônomas. Segundo a entidade, Microsoft, Amazon e Intel foram classificadas como as companhias de tecnologia que mais colocam o mundo em risco por conta de projetos como estes.

Os critérios levados em conta foram: se eles estavam desenvolvendo tecnologia que poderia ser relevante para uma IA "assassina", se eles estavam trabalhando em projetos militares relacionados, e se eles se comprometeram a parar de contribuir com este tipo de produção no futuro.

A Google, que no ano passado publicou orientações que evitam o uso da inteligência artificial para aplicação em sistemas de armas, está entre as sete empresas envolvidas que menos representam ameaça neste sentido, assim como a Softbank, do Japão, mais conhecida pelo robô humanóide "Pepper".

Vinte e duas empresas são de "preocupação média", enquanto 21 caíram em uma categoria de "alta preocupação", especialmente Amazon e Microsoft, que estão disputando um contrato do Pentágono de US$ 10 bilhões (R$ 40 bilhões) para fornecer a infraestrutura de nuvem para os EUA. Outros no grupo de "alta preocupação" incluem a Palantir, uma empresa ligada a uma organização de capital de risco apoiada pela CIA e que recebeu um contrato de US$ 800 milhões (R$ 3,2 bilhões) para desenvolver um sistema de inteligência artificial "que pode ajudar soldados a analisar uma zona de combate em tempo real".

O relatório da ONG observou, também, que os funcionários da Microsoft não apoiam o contrato da empresa com o Exército dos EUA para o uso do óculos HoloLens 2, que visa "aumentar a letalidade" no campo de batalha.

Especialistas como o professor de Ciência da Computação da Universidade da Califórnia, Stuart Russel, argumentam que era essencial dar o próximo passo para regular ou, até, proibir o uso de IA para fins militares ou letais.

Fonte: Slashdot

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.