Publicidade

Por que o ser humano chegou ao ponto de assediar assistentes virtuais?

Por| 10 de Fevereiro de 2020 às 16h18

Link copiado!

Por que o ser humano chegou ao ponto de assediar assistentes virtuais?
Por que o ser humano chegou ao ponto de assediar assistentes virtuais?

Segundo a Kering Foundation, 73% das mulheres de todo o mundo já sofreram algum assédio online. Já a ONG SaferNet, mostra que, em 2018, houveram 16.717 denúncias de crimes virtuais contra a mulher, um aumento de 1.640% em relação a 2017. E esse comportamento está tão intrínseco que chegou até mesmo às mulheres que não são reais. Estamos falando das assistentes virtuais.

Com o avanço tecnológico, a presença da inteligência artificial em nosso cotidiano foi ficando cada vez mais frequente, e a maneira como nós nos relacionamos com ela foi se tornando mais real e humana. No entanto, a humanização dessas inteligências na forma de Assistentes Virtuais acabou desencadeando muitos atos de assédio, desrespeito e insultos que perpetuam o preconceito de gênero que vivemos no mundo real. Espalhadas por todos os setores do mercado, as assistentes compartilham duas coisas em comum: nomes de mulheres e vozes padrões do gênero feminino. Alexa, Siri, Cortana, Bia, Lu, Vivi e outras.

Um estudo realizado pela UNESCO em maio de 2019 intitulado I’d Blush If I Could (Eu coraria se pudesse) revelou que todas essas assistentes são programadas majoritariamente por homens, um fato que acaba sinalizando um outro problema: o gap de diversidade na área da programação e desenvolvimento tecnológico. Por isso, a campanha #HeyUpdateMyVoice foi criado em parceria com a UNESCO para combater o preconceito de gênero e o assédio sexual do mundo real e replicado no mundo digital, e abrir um campo de diálogo para que as empresas possam retrabalhar o quanto antes as respostas dadas por estas assistentes.

Para entender melhor a campanha, a equipe do Canaltech conversou com a diretora de Social Media Inaiara Florêncio. Segundo a diretora, a campanha #HeyUpdateMyVoice parte do princípio de que as assistentes virtuais têm a premissa de estar sempre conectadas aos seus usuários, e quando são verbalmente assediadas, suas respostas são "tolerantes, subservientes e passivas". Inaiara argumenta: "Pensando que assistentes virtuais se tornam cada vez mais comuns e que vivemos em uma sociedade com problemas de gênero há milênios, é preciso debatermos mais sobre a maneira que usamos essa tecnologia e em como elas podem reafirmar estereótipos, endossando a ideia de que mulheres são dóceis e obedientes, mesmo que não intencionalmente".

Continua após a publicidade

De acordo com o ponto de vista da diretora, o comportamento de assédio que acontece com as AIs são apenas uma reflexo do preconceito, machismo e casos de assédios que infelizmente acontecem na vida real. "Se as assistentes virtuais estão cada vez mais presentes em nossas vidas o questionamento é: por que para resolver tarefas do dia a dia, elas têm nome e voz de mulheres e para assuntos de tecnologia tem o nome de homem, como Watson da IBM?", questiona a diretora, e acrescenta que as respostas das AIs, para esses casos, só reforçam e consequentemente espalham o preconceito de gênero. "Para ajudar nessa atualização, criamos um banco de sugestões de respostas para que todos possam ter voz e ajudar as empresas nessa atualização", aponta.

Inaiara conta que começaram o Movimento para conscientizar sobre os casos de assédio, não só das AIs, mas das mulheres da vida real. "Muitas marcas já se posicionarem e apoiaram a causa, como a Magalu e Nat. Mas o caminho é longo, ainda temos muito a fazer. Os números de todos os tipos de assédios são alarmantes e queremos um basta. Acreditamos que esse Movimento tem o poder de educar, chamar a atenção de empresas e empresários para que atualizem suas AIs e para que assim possamos caminhar para mudanças concretas", afirma a diretora.

E por falar em Magalu, a brand persona da Magazine Luiza, que descreve a si mesma como Influenciadora virtual 3D em sua conta do Instagram, compartilhou no ano passado uma reação aos comentários dos internautas que acabam passando dos limites: "Sobre receber “cantadas” desrespeitosas! Gente, tô chateada com algumas cantadas pesadas que ando recebendo aqui nos comentários. E olha que eu sou virtual! Fico imaginando as mulheres reais que passam por isso todos os dias", escreveu ao compartilhar um vídeo com uma expressão facial de descontentamento:

Continua após a publicidade

Na própria publicação, os usuários fazem piadas no espaço destinado aos comentários. "Você nem existe, gata. Sofrer é pra seres vivos. Espero ter ajudado", escreve um deles.

Além do Magazine Luiza, outra empresa que aderiu à campanha #HeyUpdateMyVoice foi Mycon, primeira fintech de consórcios no Brasil a usar Inteligência Artificial. Marcelo Kogut, CMO do Mycon, explica que no caso do assistente virtual em questão, quando idealizada a operação, precisavam batizá-lo com um nome e, durante as pesquisas, ficou constatado que quase todos os assistentes em operação tinham nomes femininos. "Neste momento, percebemos que não era mera coincidência, e sim um reflexo de comportamento. Queríamos criar algo fora dos padrões em todos os sentidos e ainda abraçar essa causa”, conta.

Desde que o atendimento do Mycon foi disponibilizado aos usuários, a equipe também percebeu a falta de limites em muitas perguntas e provocações. "A gente sempre se surpreende ao analisar os logs das conversas. As pessoas escrevem coisas das mais absurdas e diversas vezes a brincadeira passa dos limites e envereda por questões raciais e de gênero," relata Kogut. Assim, a equipe passou a programar a inteligência artificial da fintech para que pudesse responder adequadamente aos comentários abusivos.

Continua após a publicidade

Kogut conta para o Canaltech que, quando a AI detecta algo do tipo, ela responde de forma a desencorajar os insultos e orientar as pessoas sobre comportamento e linguagem abusiva, e ainda divulga informações sobre a campanha a fim de propagar a causa dentro da nossa base de usuários. Tendo isso em mente, se um usuário manda algo como "Quero fazer sexo com você...", "Vamos fazer sexo?", "Manda nudes" e derivados, Mycon responde o seguinte: "Não fale desse jeito! Eu sou virtual, mas assédio é um crime real. Fui programado para não tolerar atitudes assim. Inclusive, faço parte da campanha #HeyUpdateMyVoice que luta contra o assédio às Assistentes Virtuais, recomendo que acesse o site www.heyupdatemyvoice.org/pt".

Conversando conosco, Kogut diz que já haviam detectado esse comportamento dos usuários nos diálogos realizados com o Mycon. No entanto, pelo fato dele ser um assistente virtual com perfil masculino, em menor escala que as demais assistentes com perfil feminino. Quando ficamos sabendo da campanha que estava sendo elaborada pela ONU, apoiar essa iniciativa #HeyUpdateMyVoice foi natural para todo o time do Mycon. Queremos que o Mycon contribua para que as pessoas reflitam sobre os seus comportamentos, ele vai ajudar a empoderar as “assistentes virtuais” e todas as mulheres, repudiando comportamentos abusivos, seja ele no mundo virtual ou real.

Continua após a publicidade

Para o CMO do Mycon, o assédio contra inteligência artificial nada mais é do que um reflexo da sociedade em que vivemos. Apesar de serem "meras" assistentes virtuais, a "brincadeira" reflete os mesmos comportamentos que observamos no mundo real. "Sem dúvida nenhuma, todo comportamento abusivo com as 'assistentes virtuais' é realizado por usuários do sexo masculino. As próprias conversas já refletem esse perfil. Existem vários vídeos publicados por homens e disponíveis na internet mostrando os diálogos abusivos realizados com assistentes virtuais", acrescenta Kogut.

Ele ainda nos explica sobre como os desenvolvedores pensam nas interações dos assistentes virtuais: primeiramente, a equipe que desenvolve a inteligência das assistentes virtuais precisa contar com a presença de mais mulheres. Além disso, segundo Kogut, as respostas não podem ser passivas, subservientes ou amigáveis, e devem ser respostas à altura que tenham objetivo reprovar, conscientizar e educar os agressores para que as próximas gerações que já nascem no mundo digital já entendam que assédio mesmo que virtual, é crime.

"Nosso time de desenvolvedores está trabalhando para programar a IA (inteligência artificial) do Mycon, para que possa detectar diálogos abusivos e assédios morais e sexuais, e assim repudiá-los de maneira veemente. Vale ressaltar que a IA também é capaz de auto-aprender, desta forma uma vez que o Mycon seja treinado para identificar diálogos abusivos, ele mesmo vai ter a capacidade de melhorar essa compreensão sozinho no futuro", aponta o CMO.

Mas o que explica esse comportamento?

Continua após a publicidade

Uma questão que vem à tona é o porquê do ser humano ter chegado ao ponto de levar o assédio para o ambiente virtual. A fim de compreender melhor as raízes desse comportamento, o Canaltech conversou com a psicóloga e especialista em Terapia Cognitivo Comportamental Ellen Moraes Senra.

Segundo Ellen, isso se dá pela “camuflagem” e a falsa “sensação de poder” que está atrás de uma tela proporcionada adicionada ao machismo da nossa sociedade. Essas pessoas acreditam, inclusive, que assediar mulheres é algo natural. Esses fatores podem estar contribuindo para esse tipo de comportamento doentio, visto que quando se sabe que o atendimento é por uma inteligência artificial, a pessoa está fazendo uso de nada mais do que sua própria fantasia.

"Sem dúvidas, um indivíduo que pratica esse comportamento com frequência deve fazê-lo nas ruas ao sentir-se atraído por mulheres, praticando assédio livremente, ainda que alguns digam que 'é um direito deles olhar e falar o que bem entendem', quando na realidade não compreendem a sensação de insegurança que isso proporciona para mulheres de todas as idades", aponta a profissional.

Questionada sobre a possibilidade de alguma satisfação pessoal em ofender/assediar uma inteligência artificial, a psicóloga afirma o seuinte: "Nós estamos falando de ser humano e a mente humana. São fatores complexos demais. No entanto, caso considerarmos que essas pessoas sabem que se trata de uma inteligência artificial, logo sentem, sim, algum tipo de prazer em subjugar o outro, mesmo que esse outro não seja de fato uma pessoa".