E se um carro inteligente provocar um acidente, de quem é a culpa?

Por Redação | 19.08.2014 às 12:25
photo_camera Divulgação

Homem versus máquina. A cada dia que passa, o antagonismo entre humanos e maquinários torna-se mais tênue: hoje o mundo já passou a ser controlado por computadores, smartphones, tablets, relógios e carros inteligentes. Ainda estamos um pouco distantes de vermos máquinas com personalidade própria. Podemos programar robôs para agirem sempre da mesma forma, mas por mais que consigam tomar suas decisões de forma independente, nunca serão os culpados por algum acidente ou revés.

Se nós quisermos robôs e máquinas do nosso lado para realizar as tarefas diárias, como dirigir, cozinhar, entregar produtos e serem nossos assistentes pessoais, temos que atribuir a eles um papel perante a lei. Pelo menos é o que diz o advogado John Frank Weaver, autor do livro Robots Are People, Too (Os Robôs Também São Pessoas, em tradução livre), para o Slate.

"Se estamos lidando com robôs como se eles fossem gente, a lei deve reconhecer que essas interações são como nossas próprias interações com as demais pessoas", escreve Weaver. "Em alguns casos, isso requer reconhecimento de que robôs são entidades seguráveis, assim como pessoas reais ou empresas, e que a responsabilidade de um robô é auto-suficiente".

Mas aí surge o grande problema: se não definirmos os robôs como entidades com certos direitos e obrigações legais, teremos que passar por maus bocados para usá-los de forma eficaz. E a única ferramenta que temos para resolver esse impasse do mundo moderno é a personalidade jurídica.

Aí você para e pensa: como fica a situação de empresas como o Google, que operam carros de auto-condução? Digamos que o Google está te vendendo um desses carros. E, de repente, ele se envolve em um acidente. Quem se responsabilizaria pelos danos – você ou o Google? Afinal, quem dirigiu o carro foi um computador com um algoritmo programado e vários sensores, todos de responsabilidade do Google. O próprio Google já discutiu que as multas de trânsito não deveriam ser aplicadas ao ocupante do carro, mas sim à própria empresa.

Mas em um mundo real, um carro que dirige sozinho deve contar com um tipo específico de manutenção ou ser operado apenas em determinadas áreas de uma cidade. Aí, o responsável não seria o software, mas sim o proprietário do veículo.

Agora, imaginemos uma situação hipotética mas que poderá ocorrer perfeitamente num futuro próximo aqui no Brasil: digamos que um carro inteligente se desvia de um jegue no meio da pista. Mas, ao tentar se livrar do obstáculo, acaba acertando em cheio outro carro. Ele fez o que era certo se desviando do jegue, mas quem é o responsável por bater em outro carro? O Google?

Segundo Weaver e seus argumentos, não, nada de sobrar para o Google. O robô em questão é que deveria ser considerado responsável. Em seu mundo legal ideal, "o carro se torna um bem segurável que, potencialmente, oferece um meio de pagamento de seguro mais rápido às vítimas, para proteger os proprietários de processos judiciais inesperados".

Parece absurdo? Mas tente imaginar o seguinte cenário: o Google vendeu uma frota de 100 mil carros para uma empresa. Será que eles deveriam ser legalmente responsáveis por cada multa ou acidente em que estivessem envolvidos? Que empresa deveria assumir todo esse nível de responsabilidade legal?

O consultor de design Brian Sherwood Jones discorda e rebate a ideia de Weaver. Para ele, a ideia de que "um robô seja culpado por um acidente não faz o menor sentido". E ele ainda argumentou que, "se nós não atribuirmos responsabilidade legal às pessoas", haverá uma "evasão em massa de responsabilidades".

Hoje, a responsabilidade de um carro desses na estrada já se encontra nas mãos de uma pessoa não-humana, ou seja, de uma pessoa jurídica ou corporação.

Para Weaver, transformar robôs em entidades jurídicas talvez auxiliaria a esclarecer seus papéis em nossas vidas para situações como essas. Portanto, neste caso, se um carro que dirige sozinho estiver fazendo a coisa certa, mas se envolver de alguma maneira em um acidente, ele – sendo uma pessoa legal – pode contar com seu próprio seguro. Ou seja, os danos seriam pagos pela pessoa jurídica do carro.

Outra opção interessante seria que empresas como o Google desenvolvessem modelos de negócios e operacionais que as permitissem reduzir e/ou assumir riscos. Assim, em vez de vender um carro inteligente para uma pessoa, o próprio Google poderia operar uma frota de veículos ultrasseguros. É claro que o design do carro do Google – pequeno, leve e com velocidade limitada – já parece indicar que a empresa esteja se preparando para um mundo em que acidentes graves podem acontecer a qualquer momento.

Vale dizer que uma pessoa "robótica" terá de lutar para manter sua "personalidade" sempre firme, mantendo a complexidade dos sistemas modernos. Talvez, não é que nós estejamos precisando estender a nossa personalidade às máquinas, mas sim rever todo o conceito de personalidade que já temos para entidades não-humanas.