Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Senadores dos EUA pedem aos órgãos públicos avaliação sobre preconceito nas IAs

Por| 26 de Setembro de 2018 às 15h30

Link copiado!

Senadores dos EUA pedem aos órgãos públicos avaliação sobre preconceito nas IAs
Senadores dos EUA pedem aos órgãos públicos avaliação sobre preconceito nas IAs

A Inteligência Artificial já é assunto pautado com seriedade no governo norteamericano. Sete membros do Congresso estadunidense enviaram cartas à Federal Trade Commission (FTC), ao Federal Bureau of Investigation (FBI) e à Equal Employment Opportunity Commission (EEOC), questionando se essas agências estão seguras de suas avaliações quanto aos algoritmos de Inteligências Artificiais que já estão inseridas no mercado de trabalho e vigilância de cidadãos.

"Estamos preocupados com as crescentes evidências de que essas tecnologias podem perpetuar preconceitos de gênero, sexualidade, etnias, idades e outros", diz uma das cartas enviadas à FTC. A preocupação exposta se refere, principalmente, às possibilidades de violação dos direitos civis estadunidenses, o que "pode ser injusto e enganoso", segundo o documento.

As cartas exigem respostas dos órgãos dando como prazo máximo o final do mês de setembro. Elas expõem detalhes sobre o uso indevido de reconhecimento biométrico ou inteligências artificiais, além de informações sobre como os algoritmos são testados em relação a questões jurídicas antes de serem implementados.

Já na carta enviada à EEOC, órgão que se responsabiliza pela luta por direitos equalitários no mercado de trabalho estadunidense, os senadores Kamala Harris, Patty Murray e Elizabeth Warren pedem a determinação da segurança quanto a essas tecnologias frente à Lei dos Direitos Civis, promulgada em 1964; a Lei da Igualdade de Pagamento, de 1963; e a Lei dos Americanos com Deficiências, de 1990.

Continua após a publicidade

O interesse do Congresso estadunidense nos trâmites legais que envolvem as inteligências artificiais e o direito público não é algo recente. Durante uma série de audiências sobre tecnologia que aconteceu no início de 2018, o reitor executivo associado ao Instituto de Tecnologia da Geórgia, Charles Isbell, contou sobre os preconceitos e violações de direitos que ele encontrou ao longo de seus 30 anos de pesquisa em IAs: "Eu estava hackeando todos todos os softwares de reconhecimento facial [do meu colega de trabalho] porque aparentemente todas as fotos que eles estavam tirando eram de pessoas com significativamente menos melanina do que eu", disse Isbell ainda em fevereiro, se referindo a testes que foram feitos ainda na década de 1990.

Segundo a pesquisadora em reconhecimento facial Joy Buolamwini, os documentos enviados representam um grande avanço no lido com os perigos do preconceito nos algoritmos: "As agências governamentais precisarão aumentar suas capacidades de examinar os sistemas habilitados por IA para detectar preconceitos prejudiciais que podem passar despercebidos sob o disfarce de neutralidade de máquina", defendeu Buolamwini. A pesquisadora também disse que, no mínimo, a FTC deveria colocar o reconhecimento facial na agenda para sua audiência sobre Inteligências Artificiais, marcada para ocorrer nos dias 13 e 14 de novembro.

Estudos & Pesquisas

Pesquisadoras em Inteligência Artificial e especialistas em algoritmos de Aprendizado de Máquina vêm debatendo o assunto há algum tempo. Joy Buolamwini, que compõe o corpo discente da pós-graduação do Massachusetts Institute of Technology (MIT), chama o fenômeno do preconceito humano permeando o funcionamento das máquinas como "olhar codificado" que, segundo a pesquisadora, assim como o preconceito vindo de pessoas orgânicas, pode gerar injustiças para grupos minoritários no mundo real. O problema é que, quando um preconceito é assimilado por um algoritmo, há a possibilidade de, como um vírus, as ideias excludentes sejam passadas adiante em grande escala e em ritmo acelerado.

Continua após a publicidade

"O preconceito em algoritmos também pode levar a experiências de exclusão e a práticas discriminatórias", defende Buolamwini, ao explicar que muitos softwares atualmente utilizados para reconhecimento facial são incapazes de interpretar seu próprio rosto como uma face válida para um ser humano, devido ao seu tom de pele ser escuro e seus traços apresentarem, em grande parte, características da etnia negra. O problema de não-identificação biométrica desaparece quando Buolamwini sobrepõe uma máscara feita em material branco ao seu próprio rosto, só então conseguindo ter as feições reconhecidas pelos softwares.

Em sua formação acadêmica no Laboratório de Mídia MIT, Buolamwini constriui um software chamado Aspire Mirror (ou, em tradução livre, Espelho dos Desejos) que reconheceria os rostos dos usuários em superfícies espelhadas e então os substituiria por imagens diversas, criando máscaras digitais por cima da imagem refletida. Para a construção do Aspire Mirror, Buolamwini utilizou um software genérico de reconhecimento facial, prática comum na área. Entretanto, na hora de testar a inovação, um problema surgiu: a desenvolvedora não conseguia fazer o software funcionar a menos que ela utilizasse uma máscara branca por cima de sua própria face, que não era captada como um rosto humano válido na testagem.

"A visão das máquinas usa técnicas de Aprendizagem de Máquina para fazer o reconhecimento facial. Funciona assim: criamos um grupo de formação com exemplos de rostos. Contudo, se os grupos de formação não forem diversificados, qualquer rosto que se desvie demais da norma estabelecida será difícil de detectar", explica a pesquisadora sobre a exclusão que as máquinas aprenderam com humanos como reproduzir.

A boa notícia, segundo Buolamwini, é que a resolução do problema é extremamente simples: basta inserir exemplos mais diversificados no grupo de controle ao se desenvolver os algoritmos de reconhecimento facial e o resultado será um software mais eficiente, capaz de lidar com a diversidade real humana.

Continua após a publicidade

Esta não é uma questão que se encerra na seara dos Direitos Humanos, com intuito único de diminuir a exclusão que determinados grupos minoritários enfrentam cotidianamente. É, também, uma questão de melhorias tecnológicas. Um algoritmo que desconsidera rostos que não sejam de etnia caucasiana é um algoritmo ruim. Do ponto de vista mercadológico, assim como do ponto de vista social, a rede neural incapaz de lidar com rostos com características negras ou orientais é uma tecnologia limitada que não pode ser vendida para grandes mercados lucrativos, como a China ou a Índia.

Portanto, fica o questionamento para os desenvolvedores de redes neurais: os algoritmos que estamos criando são capazes de incluir todas as pessoas que serão submetidas àquele produto? Os grupos de formação que selecionamos estão dando a essas máquinas a capacidade de entender como funcionam rostos de outras etnias, ou mesmo de pessoas transexuais, ou com deficiências, cicatrizes e manchas no rosto?

Para se criar Inteligências Artificiais que não reproduzam preconceito basta reduzir a mentalidade que apenas rostos padronizados devem figurar no desenvolvimento de algoritmos. Talvez assim as máquinas nos ensinem como conviver de forma igualitária com todos os humanos plurais que habitam o mundo.

Fonte: Quartz