Twitter cria grupo de estudos para conter “comportamento tóxico”

Por Felipe Demartini | 30 de Julho de 2018 às 12h27
Tudo sobre

Twitter

O Twitter continua firme em seus esforços de combate ao discurso de ódio e manipulação de informação. Depois de excluir mais de um milhão de contas falsas, o que não caiu nada bem junto aos investidores, mas foi considerada como uma atitude necessária pela companhia, a rede social anunciou agora que vai fazer uma auditoria interna voltada para a criação de um algoritmo capaz de identificar “bolhas” de discussão e entender o momento em que esse tipo de diálogo começa a se tornar inflamado demais, a ponto de atitudes terem de ser tomadas.

O grupo será liderado por Rebekah Tromble, da Universidade de Leiden, na Holanda, e será composto por diversos pesquisadores de diferentes países da Europa. A ideia, segundo divulgado pelo Twitter, é entender as causas do que chamou de “discurso não civilizado” e de que maneira ele pode surgir a partir de redes de contatos e perfis que ventilam as mesmas ideias o tempo todo.

Sendo assim, um dos trabalhos da auditoria será avaliar a frequência com que usuários da rede social “saem da bolha”, ou seja, têm contato com ideias diferentes das disseminadas em seu círculo usual de contatos, e de que maneira eles reagem a esses diálogos. Assim, acredita a empresa, ela será capaz de identificar quando um discurso começa a se tornar intolerante, inflamatório ou violento.

Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

É, novamente, parte dos esforços da companhia para combater a gigantesca polarização política na rede social, principalmente levando em conta que países como Estados Unidos e o Brasil se aproximam de eleições importantes. Uma das ideias é criar sistema que promovam o debate de ideias e o contato com visões e opiniões diferentes, sempre tomando o devido cuidado para que tais discussões não deixem de serem civilizadas.

A escolha da Universidade de Leiden está relacionada a um estudo da instituição exatamente sobre esses dois fatores. Em pesquisas publicadas nos últimos anos, os estudiosos foram capazes de estabelecer uma relação clara entre o crescimento na hostilidade das postagens e o contato com perspectivas opostas, principalmente em relação a temas políticos e sociais.

Outro estudo, da Universidade de Oxford, no Reino Unido, tenta determinar se o contato com indivíduos de diferentes posturas por meio das redes sociais também se reflete em comportamento fora da internet. A instituição também faz parte do grupo de auditoria interna convidado pelo Twitter e deve trazer o feedback dessa pesquisa para a companhia, ajudando a entender a diferença entre contatos positivos e negativos no que toca a discussão política na plataforma.

Os resultados, porém, devem levar algum tempo para serem vistos no microblog. O Twitter não deu nenhuma previsão para a aplicação de algoritmos e tecnologias derivadas dos estudos, mas, com a atitude, deixa claro que sua postura contra diálogos tóxicos é permanente. Também seguem caminhando os esforços relacionados ao banimento de fakes e bloqueio de perfis responsáveis por disseminar discurso de ódio, entre outras iniciativas.

Fonte: Engadget

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.