Google quer que Inteligências Artificiais evitem situações embaraçosas

Por Redação | 07 de Outubro de 2016 às 20h45

Inteligência Artificial é algo maravilhoso de ver funcionando na prática, mas na teoria é muito mais complicado do que parece. Você já parou para pensar como um programador quebra a cabeça tentando fazer com que as máquinas aprendam a se portar como se fossem seres humanos, com base apenas em muita lógica de algoritmos? Bem, os seres humanos não são nada lógicos, e controlar uma máquina com um bom grau de sentimento é um desafio e tanto para as empresas que investem na tecnologia — e essa pedra também está no sapato do Google.

O gigante das buscas tem um objetivo e pretende alcançá-lo em breve: fazer com que as máquinas que usam inteligência artificial parem de gerar situações embaraçosas que envolvam preconceito, falta de educação ou inconveniência.

O sistemas de aprendizado de máquina nada mais são do que motores de predição que aprendem, a partir de um vasto conjunto de dados, a agir como se fossem inteligentes o suficiente para tomar decisões sozinhos. Por exemplo: uma inteligência artificial pode ser programada para diferenciar objetos em imagens, sem confundi-los. Mas é claro que, como em todo código, estas máquinas estão sujeitas a errar. E o erro nem sempre tem consequências leves.

Imagine, portanto, que um computador está lidando com pessoas, ao invés de imagens de objetos, em uma empresa de previdência social ou um serviço de home banking. Qualquer erro no algoritmo pode levar a máquina a entrar em conflito com o que deveria ser feito em um dado momento, causando constrangimento em clientes e resultando em uma bela dor de cabeça para a empresa responsável.

"Quando um grupo de pessoas ou sociedade coincide com um atributo mais delicado, como raça, gênero, deficiência ou religião, a situação pode levar a resultados injustos ou até mesmo prejudiciais", escreveu o chefe de AI do Google, Moritz Hardt, em um post. "Apesar da necessidade, falta uma metodologia focada no aprendizado de máquina para prevenir este tipo de discriminação baseada em atributos".

A ideia é evitar com que situações desagradáveis aconteçam não só apenas por treinamento de máquina ou desenvolvimento de algoritmos mais delicados, mas também para que a inteligência artificial saiba reconhecer um momento desagradável e seja capaz de contorná-lo, ou mesmo consertá-lo.

É um desafio e tanto para o Google, mas ao mesmo tempo, altamente relevante, uma vez que a inteligência artificial está cada vez mais presente na vida das pessoas e nas indústrias. Hardt e seus parceiros de trabalho estão confiantes e já começaram a trabalhar em cima disso. Tanto, que vão apresentar um artigo sobre aprendizado de máquina envolvendo mais delicadeza em relação a atributos em Barcelona, na conferência NIPS (Neural Information Processing Systems), em dezembro.

Via TechCrunch

Siga o Canaltech no Twitter!

Não perca nenhuma novidade do mundo da tecnologia.