Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Facebook cria IA que se comporta como um usuário nocivo; entenda o porquê

Por| 23 de Julho de 2020 às 17h30

Link copiado!

Facebook cria IA que se comporta como um usuário nocivo; entenda o porquê
Facebook cria IA que se comporta como um usuário nocivo; entenda o porquê
Tudo sobre Facebook

O Facebook criou uma inteligência artificial (IA) capaz de se comportar como um usuário nocivo na rede social. A pergunta possível aqui é: por que a empresa se empenharia em recriar um comportamento ruim na plataforma se já tem tanta gente nociva na plataforma? Pois bem, a ideia é exatamente simular como estas pessoas agem de forma maliciosa na rede social para, então, criar mecanismos de defesa contra elas.

Em apresentação para jornalistas nos Estados Unidos, a companhia descreveu o mecanismo. O simulador recebeu o nome de WW (cuja pronúncia é "dãb dãb", como diminutivo de "dábliu") e funciona em uma versão paralela simulada do Facebook somente para testes.

O que a empresa percebeu é que a primeira coisa que uma pessoa maliciosa faz na rede social é cooptar um grupo de outros usuários para serem convencidos de propagar notícias falsas ou realizar ações ruins em conjunto na rede social. Para representar isso, os pesquisadores criaram uma inteligência artificial (chamada de “IA má”) para ser o “cooptador” e outra que vai ser comportar como o usuário cooptado (chamada de “IA inocente”).

Continua após a publicidade

Com isso, o Facebook estuda as formas como esta IA má vai interagir com a IA inocente e criar estes grupos que depois são usados para ações maliciosas. Dentro deste simulador, a empresa começa a limitar ações da IA má, por exemplo, reduzindo o número de mensagens privadas que pode mandar ou de quantos novos amigos pode fazer. Assim, o grupo analisa qual o impacto de cada uma dessas mudanças para prevenção de um comportamento negativo na rede.

E como isso melhora a experiência na rede social?

A utilização dessa IA tem duas vantagens. A primeira é não contar com a participação de perfis reais, o que pode gerar consequências negativas em um experimento comportamental. Outra vantagem é conseguir acelerar o processo. “Podemos escalar isso para dezenas ou centenas de milhares de bots e, depois, em paralelo, pesquisa várias e várias possibilidades de restrição”, aponta Mark Harman, engenheiro líder do time do Facebook na pesquisa.

Os bots criados podem realizar buscas, criar pedidos de amizades, escrever comentários e publicações, além de escrever mensagens privadas. Contudo, isso é somente um input, ou seja, as mensagens não exatamente simuladas.

Continua após a publicidade

Apesar de acontecer em uma versão paralela da rede social, ele ressalta que se trata de uma versão muito parecida com a real. “Diferente de outras simulações, esta baseada em rede, conta com ações e observações com base na infraestrutura da rede real, o que a torna muito mais realista”, explicou o engenheiro.

De acordo com os pesquisadores, no momento, o WW está sendo usado somente como análise. Isso quer dizer que ainda não houve resultado práticos em mudanças na versão real do Facebook.

Atualmente, o foco é treinar os bots para imitar coisas que sabemos que já acontecem na plataforma. Mas em teoria e na prática, estes bots podem fazer coisas que não vimos ainda na plataforma. Isso é o que queremos na verdade, porque buscamos estar um passo à frente do comportamento negativo do que estar sempre em busca dele”, completou.

Fonte: Facebook, The Verge