Quando uma máquina comete uma infração, quem deve responder pelo crime?

Por Ares Saturno | 22 de Março de 2018 às 19h05

No início da semana, fomos surpreendidos pela notícia que uma mulher foi atingida por um carro autônomo que estava sendo testado pela Uber no Arizona, EUA, vindo a óbito logo em seguida e se tornando a primeira vítima fatal de um veículo guiado por programação.

Nos dias que se seguiram à fatalidade, foi amplamente veiculado pela imprensa a informação de que havia um condutor humano dentro do veículo, que nada pôde fazer para evitar a colisão, pois as condições de iluminação da via não permitiram que ele enxergasse a vítima na frente do carro antes de o acidente acontecer. O vídeo do acidente também foi divulgado e logo debates acerca da segurança dos veículos autônomos foram levantados em todos os lugares, levando inclusive à suspensão de testes semelhantes realizados por outras marcas, como a Toyota.

Com a progressão de serviços prestados por inteligências artificiais, cresce também o debate de como essas entidades virtuais, que já fazem parte do nosso cotidiano, devem ser tratadas no âmbito jurídico. Quando uma inteligência artificial tem participação em infrações penais, como foi o caso do carro da Uber no Arizona, quais são os limites legais? Quem deve responder juridicamente?

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Um assunto delicado

Num primeiro olhar, é quase automático a defesa de que a empresa responsável pelo desenvolvimento e implementação da tecnologia deve se responsabilizar juridicamente caso alguma de suas criações em aprendizado de máquina aja de forma a causar danos à população que atende. 

Esse é, inclusive, o posicionamento de empresas de renome na pesquisa e desenvolvimento de IA, como a Microsoft, que discorre longamente sobre o tema em sua recente publicação The Future Computed. Lá, a empresa afirma que é responsabilidade dos desenvolvedores de sistemas baseados em aprendizado de máquina se atentar para os comportamentos que a IA apresentará não apenas circunstâncias normais de uso, mas também em condições inesperadas e sob ataques mal intencionados.

É louvável que uma empresa desse porte tome para si a responsabilidade de cuidar dos desdobramentos que a IA pode ter sobre as nossas relações sociais, empresariais, de consumo e jurídicas. Mas devemos lembrar que não são apenas empresas gigantescas, como a Microsoft e a IBM, que desenvolvem produtos em Inteligência Artificial e Aprendizado de Máquina. Há uma infinidade de startups criando entidades virtuais capazes de aprendizado, bem como desenvolvedores independentes.

Dessa forma, os produtores de tecnologias de IA estariam expostos a graus de responsabilidade superiores ao qual estão acostumados, o que poderia, se o assunto não for tratado com a sensibilidade necessária, ocasionar paralisações no progresso científico-tecnológico, dada a dificuldade em arcar com as responsabilidades demandadas.

Para especialista no assunto, deve haver equilíbrio entre a responsabilisação dos desenvolvedores e estímulo à inovação. (Imagem: Reprodução/iStock)

Nesse sentido, a advogada Natália Marques, que atua no escritório Dosso Advogados, em Ribeirão Preto, disse acreditar que uma das preocupações da responsabilidade civil deve ser conciliar o estímulo à inovação com o dever de reparação pelos danos causados pelas máquinas, "sendo necessário construir um sistema pelo qual o agente econômico não seja superexposto à responsabilidade civil (o que esfriaria a inovação), e também não seja pouco exposto, pois, nesse caso, o fabricante não teria o incentivo de que precisa para não colocar ao mercado tecnologias pouco seguras", defende a advogada.

Quando questionada pelo Canaltech sobre a dificuldade de concorrência entre desenvolvedores de pequeno porte frente às instituições bem estabelecidas, em relação à responsabilização legal de sistemas autônomos de Aprendizado de Máquina, Natália afirmou: "Há empresas que, com as devidas estratégias, conseguiriam amortizar os impactos de eventuais prejuízos que seus sistemas autômatos causariam aos usuários e terceiros. As empresas menores, se fossem totalmente responsabilizadas por todo e qualquer dano, acabariam sem ter como prever os custos e ônus da operação e sem capacidade de absorver os prejuízos. Essa situação de insegurança por si só poderia minar o empreendedorismo e o alcance de seus produtos em larga escala. A tendência, nesse cenário, poderia não ser exatamente o fim de pequenas empresas, mas sua absorção por empresas maiores, como a IBM e a Microsoft".

Quando perguntamos se essa absorção não levaria a uma dominío exclusivo de mercado por empresas de grande porte, a advogada detalhou: "É de se destacar que, para além do monopólio, a absorção dos riscos integrais implicará produtos com preços bem superiores ao que teriam, caso um sistema mais mitigado fosse instaurado; os preços maiores tentarão compensar os eventuais prejuízos. Assim, apenas determinada camada da população teria condições econômicas de adquirir os produtos autômatos. Com a demanda de consumo mais baixa, as empresas menores teriam menos condições de inserirem produtos caros no mercado em relação às grandes empresas".

Soluções definitivas estão longe de serem alcançadas, mas não há dúvidas que os debates seguem acalorados e a preocupação com o avanço da Inteligência Artificial está em evidência, com intuito de guiar o avanço técnico-científico para um futuro integrado e justo, longe dos cenários onde a IA se torna vilã.

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.