Apple não permite mais que a Siri fale sobre feminismo

Por Natalie Rosa | 07 de Setembro de 2019 às 12h30

A Apple está fazendo algumas mudanças no algoritmo da Siri e, segundo descoberta do The Guardian, termos como "feminismo" estão sendo evitados pela assistente pessoal.

Se você perguntar para a Siri se ela é feminista, a resposta da assistente pessoal será que ela acredita na igualdade e no respeito entre todas as pessoas. Em comentários sobre reportagem, a companhia afirmou que o objetivo da alteração é oferecer respostas aos usuários que não emitam opinião.

A resposta da Siri, no entanto, é um padrão de pessoas que acreditam que o termo significa desigualdade, que traz privilégios às mulheres. Por ser justamente o contrário, a Apple perde uma boa oportunidade de conscientização contra o preconceito por quem assume ser feminista, principalmente pela Siri se tratar de uma assistente "mulher".

Captura de tela/Canaltech

A Apple ainda diz que "a Siri deve ser protegida ao lidar com conteúdo potencialmente controverso" e que algumas perguntas podem ser desviadas em uma forma de tentar ser neutro. De fato, quando se pede para a Siri explicar o que significa o termo "feminismo", a assistente direciona a busca pela resposta em páginas na web, ao contrário de outros temas que são respondidos prontamente.

Outras perguntas são esquivadas pela assistente pessoal quando se trata da opinião sobre temas "polêmicos", como a igualdade de gênero e direito das mulheres. Em entrevista ao The Guardian, Sam Smethers, chefe executiva de campanhas de direitos das mulheres da Fawcett Society, diz que o problema da Siri e outras assistentes pessoais, como a Alexa, é que são todos feitos por homens.

Captura de tela/Canaltech

"Eu odeio ter de dizer isso para a Siri e seus criadores: se você acredita em igualdade, isso é feminismo. Isso não vai mudar até que uma quantidade significativa de mulheres sejam recrutadas para o desenvolvimento e design dessa tecnologia", diz Smethers.

Em documento com diretrizes de desenvolvimento da Siri encontrado pelo The Guardian, os desenvolvedores são instruídos com três questões:

  • Uma inteligência artificial não deve se representar como humana, nem com omissões que permitam ao usuário acreditam que ela seja;
  • Uma inteligência artificial não deve invadir os padrões éticos e morais dos humanos mantidos de forma comum em sua região de operação;
  • Uma inteligência artificial não deve impor seus próprios princípios, valores ou opiniões como um humano.

Se a proposta da empresa é não tomar um lado e não irritar algumas pessoas, a missão acaba falhando completamente, visto que a resposta induz ao pensamento de que o feminismo não preza pela igualdade e respeito.

Recentemente, a assistente pessoal da Apple se envolveu em outra polêmica, quando foi descoberto que a Siri gravava conversas de seus usuários, e que contratantes teriam acesso a áudios privados.

Fonte: The Guardian

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.