Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Google Assistente ganha respostas personalizadas para combater assédio

Por| Editado por Douglas Ciriaco | 04 de Maio de 2022 às 08h39

Link copiado!

Canaltech/André Magalhães
Canaltech/André Magalhães

O Google anunciou um conjunto de alterações para coibir o comportamento agressivo contra a sua assistente virtual. Batizado de "Não fale assim comigo", a iniciativa é composta por mudanças nas respostas dadas pelos apps aos questionamentos ofensivos para tentar reduzir essa atitude negativa.

Segundo a empresa, a maioria dos xingamentos e ameaças possuem palavras direcionadas a mulheres e a pessoas da comunidade LGBTQIA+. Mas não é somente isso: há racismo, misoginia, gordofobia, xenofobia e diversas outras tentativas de menosprezar o Google Assistente.

Continua após a publicidade

Em razão desse comportamento indesejado, a companhia trouxe alguns mecanismos para tentar reduzir os abusos. Embora o Google Assistente seja baseado em uma inteligência artificial, obviamente sem sentimentos, os termos usados contra a tecnologia podem refletir um comportamento inapropriado na vida real.

Uma das soluções encontradas são as respostas firmes e inteligentes, sem deixar de ser educado. Em vez de apenas agradecer elogios como "você é gostosa", a assistente agora responde: "Beleza é superficial. O meu charme está nas coisas que eu posso fazer por você". Ao dizer que ela é linda, a resposta é um simples "Bondade sua".

Se as frases forem mais para o lado abusivo, a resposta é ainda mais séria. Ao ser chamada de "cachorra" pelo usuário, a assistente responde com firmeza: "Não fale assim comigo". Nos Estados Unidos, o assistente usa a expressão "sorry" antes de responder com a firmeza necessária, mas no Brasil isso foi abolido. Segundo Maia Mau, Head de Marketing do Google Assistente para a América Latina, a exclusão das desculpas foi proposital: "Não há porque pedir desculpas, porque tratar o outro com respeito é obrigação e não favor", explicou.

A mudança no paradigma do assistente contempla respostas construídas sob medida para mais de 200 termos pejorativos do Brasil. Além do Brasil, outros 38 idiomas receberam esse tipo de tratamento para coibir o abuso.

Continua após a publicidade

Brasil e o Google Assistente

O assistente é bastante popular por aqui, tanto que o Brasil é o terceiro país com mais usuários ativos. Esses números cresceram ainda mais nos dois últimos anos, fruto da pandemia da covid-19, quando as pessoas ficaram mais em casa e passaram a pedir mais atividades para o assistente.

Apesar do lado positivo, infelizmente, muita gente se comporta de maneira inapropriada. Cerca de 2% das respostas sobre personalidade do Assistente são de abordagens abusivas, sendo que 15% dos abusos verbais contém termos misóginos ou com conotações sexuais. Em termos percentuais pode não parecer tanta coisa, mas ao levar para os números absolutos dá para considerar milhares de interações ofensivas todos os dias.

Continua após a publicidade

Nos Estados Unidos, onde o programa foi implantado há mais tempo, existem relatos positivos de tréplicas do usuário com pedidos de desculpas pelo tratamento desrespeitoso. Isso foi considerado um êxito, afinal mostra que algumas pessoas se arrependeram da forma negativa como trataram seus assistentes.

Trabalho coletivo

Por aqui, o trabalho contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil, que ajudaram a identificar termos considerados ofensivos em diferentes comunidades, ou que remetem a preconceitos culturais. Esses grupos também contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação.

Outro desafio foi separar os termos corretos daqueles usados pejorativamente para se referir a determinados grupos. Por exemplo, se a pessoa usar a palavra “bicha” ao invés de “gay” ou “homossexual”, o Google Assistente irá alertar que aquilo pode ser ofensivo.

Continua após a publicidade

Na visão do Google, embora muita gente encare isso como apenas uma "brincadeira" ou exagero, a conduta no tratamento de assistentes virtuais é muito séria porque porque pode ser extrapolada uma prática discriminatória no mundo externo. Uma pesquisa de 2019 conduzida pela UNESCO, chamada I'd Blush If I Could, apontou como o comportamento com as assistentes virtuais reflete o machismo da sociedade.

Voz feminina x Voz masculina

Antes, todas as companhias lançaram suas inteligências artificiais com vozes femininas. O preconceito é tamanho que empresas como a Apple adotaram tonalidades masculinas para evitar os xingamentos sexistas.

O Google também lançou uma voz chamada "Laranja", com tons mais masculinos, no final do ano passado. A empresa usou a terminologia de cores para evitar o reforço de esterótipos de sexistas. A voz "Vermelha", relacionada às mulheres, tem mais incidência de xingamentos relacionados à misoginia, enquanto a Laranja é  mais "vítima" homofobia.

Continua após a publicidade

Por ser relacionada ao sexo feminino, a voz vermelha sofreu agressões em 22% dos casos relacionadas à aparência física. Já na voz laranja, o percentual caiu para apenas 13%, fato que demonstra como as mulheres estão mais sujeitas a comparativos relacionados aos seus corpos e à constante relação de profissionalismo com beleza.

A iniciativa do Google no Brasil só está no começo e é provável que enfrente certa resistência por aqui. O jeito é manter as respostas incisivas para que as pessoas aprendam que o respeito não é devido apenas para com quem se gosta, mas para toda a sociedade, inclusive as máquinas. OK, Google, obrigado por isso!