IBM começa a treinar inteligência artificial sobre questões éticas

Por Wagner Wakka | 18 de Julho de 2018 às 15h11
photo_camera Techxiler
Tudo sobre

IBM

Um dos grandes dilemas da inteligência artificial é o limite que as máquinas treinadas por este sistema conseguem entender a respeito de questões essencialmente humanas. Atualmente, grande parte destes mecanismos é usada para selecionar conteúdos apresentados a usuários em redes sociais e aplicativos. Ou seja, a inteligência artificial se torna o bastião separador do que é joio do trigo na internet. Assim, o novo questionamento é: afinal, como uma máquina define o que é bom ou não para o usuário?

O que se pode imaginar é que grandes empresas saibam e definam previamente o que é benéfico ou maléfico para que seus softwares entreguem o melhor a seus usuários. Contudo, o que redes sociais e apps exigem é cada vez mais de sua atenção da forma mais prazerosa possível. Em outras palavras, estes programas apresentam aquilo que você quer ver, não necessariamente o que você deve ver.

Para mitigar este problema, um time de pesquisadores da IBM e do MIT Media Lab está trabalhando em uma ferramenta de recomendações baseada em inteligência artificial, com o propósito de mostrar conteúdos que não só foquem no interesse do público, mas leve em consideração diretrizes éticas e comportamentais do ser humano.   

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

O primeiro passo foi a criação de um mecanismo de seleção de vídeos que permita aos pais restringir certos tipos de questões morais a seus filhos. Atualmente, plataformas como YouTube e Netflix oferecem todo um sistema à parte para crianças com conteúdos pré-selecionados e verificados pela empresa. Em contrapartida, a proposta do sistema da IBM seria “limpar” o caminho para a passagem infantil sem contato com estes conteúdos inadequados para a idade.

A proposta também ainda é permitir que o programa consiga reconhecer e mostrar certas categorias de notícias, vídeos e outros conteúdos em detrimento de outras. Atualmente, isso só é possível se a empresa que fornece estas informações trabalhar com dados estruturados. Isso é, se todos os conteúdos forem divididos em categorias muito bem definidas e separadas. A ideia é exatamente organizar estes dados desestruturados.

Como fazer isso? “Acreditamos em aprendizado por meio de exemplos do que é apropriado, e transferir este entendimento reativo a recompensas online é um problema técnico realmente interessante”, explica Nicholas Mattei, pesquisador da IBM em entrevista ao Venturebeat.

Para este treinamento de regras, por exemplo, os pesquisadores trabalham com uma técnica em dois estágios. O aprendizado da máquina começa offline, sem interação nenhuma do mecanismo com o usuário. Assim, são mostrados à máquina vários exemplos do que deve ou não ser evitado, de forma que o próximo mecanismo passe a definir aquilo que considere ou não regras éticas. Assim como quaisquer sistemas de inteligência artificial, quanto mais se alimenta este banco de dados, mais acurado é o mecanismo.

Contudo, é preciso ressaltar que este é um trabalho ativo. Ou seja, no caso do exemplo dos pais que querem definir quais vídeos são moralmente aceitáveis para seus filhos, é a própria família que precisa apresentar os exemplos do que é ou não apropriado.

Já no segundo estágio, há uma interação com o ser humano para que a inteligência artificial refine os interesses do usuário e saiba recompensá-lo com aquilo que ele realmente quer ver, dentro dos parâmetros éticos pré-definidos.

Ou seja, o desafio, após o treinamento do programa, passa a equilibrar o interesse com o limite do adequado. Voltando ao exemplo paterno, a tecnologia da IBM oferece uma barra em que os pais podem regular o nível de permissividade ou restrição em relação ao que é apresentado de acordo com os gostos da criança.

Se a plataforma funciona bem para questões mais simples como escolha de um filme, por outro lado, a proposta é ir além disso. A IBM está testando também um sistema que determina a quantidade ideal de dosagem de um remédio baseada em variáveis de sucesso desta droga comparada com a qualidade de vida que a pessoa pode ter ao consumi-la, uma questão complexa até mesmo para a capacidade humana.

O dilema deste programa, contudo, é que questões éticas e morais são muito fluidas na sociedade, de forma que a construção de uma ferramenta de inteligência artificial com essas regras exija um “treinador” isento do sistema. Em outras palavras, é pouco provável que uma pessoa consiga ajustar um mecanismo para definir o que ela gostaria de ver imparcialmente.

“Em alguns sistemas que são mais pessoais, você pode ser capaz de expressar algumas ideias complexas como 'eu quero ver mais variedades' ou 'eu quero gastar menos tempo no meu telefone”. Mas se você consegue exprimir isso, também pode passar por cima disso. Você terá de exprimir suas virtudes e cumpri-las”, explica Mattei.

Contudo, ele ressalta que este é um problema para próxima etapa do processo e que pode ser solucionado, por exemplo, convidando alguém próximo ou mesmo da família para preparar a ferramenta para você.

A tecnologia foi oficialmente oficialmente apresentada pela IBM no último dia 17 em uma conferência de inteligência artificial realizada em Estocolmo, na Suécia.

Fonte: Venturebeat

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.