Pesquisadores sugerem 25 soluções para redes sociais não destruírem a humanidade

Pesquisadores sugerem 25 soluções para redes sociais não destruírem a humanidade

Por Alveni Lisboa | Editado por Douglas Ciriaco | 06 de Julho de 2021 às 15h15
Kon Karampelas/Unsplash

Na semana passada, um estudo de pesquisadores da Universidade de Washington sobre o fato de as redes sociais possivelmente serem a ruína da sociedade causou grande impacto e gerou debates acalorados. Agora, estudiosos do Massachusetts Institute of Technolog (MIT) se aventuraram na busca por soluções que possam evitar esse cenário caótico.

Em um evento realizado pela instituição, dezenas de especialistas em redes sociais discutiram todas essas questões impactantes e também imaginaram prováveis soluções. O resultado disso foram 17 páginas de detalhamento sobre alternativas para superar os efeitos nocivos que essas plataformas podem ter na vida real.

Estudo debate e propõe 25 soluções para os problemas nas redes sociais (Imagem: Reprodução/MIT)

Algumas soluções são bastante óbvias e já estão em curso pelas principais mídias sociais, mas outras se mostram bastante desafiadoras. Quando se trata de mexer no bolso das empresas e com regulamentação governamental, por exemplo, tudo fica mais complexo e é preciso ponderar muito sobre cada solução.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Estas foram as 25 propostas por especialistas do MIT para abordar os problemas mais recorrentes envolvendo redes sociais:

  1. Responsabilizar as plataformas por designs que amplificam mentiras.
  2. Concentrar-se e fechar as prolíficas redes de desinformação.
  3. Usar intervenções de conteúdo para alertar as pessoas sobre a falsidade e a precisão.
  4. Usar ajustes de precisão para rótulos de falsidade para que os algoritmos possam ser treinados para identificar mentiras automaticamente.
  5. Dar aos pesquisadores acesso a mais dados usando tecnologias como privacidade diferencial e mecanismos institucionais como portos seguros de dados.
  6. Oferecer incentivos às plataformas, como imunidade legal, para compartilhar mais dados com os pesquisadores.
  7. Criar painéis independentes para supervisionar o financiamento de pesquisas por plataformas.
  8. Exigir soluções legislativas robustas para práticas anticompetitivas de plataforma.
  9. Criar instituições globais colaborativas onde as discussões sobre governança possam ocorrer.
  10. Estabelecer órgãos estatutários independentes dos EUA para verificar o cumprimento das diretrizes.
  11. Oferecer plataformas de "imunidade conquistada" de responsabilidade civil, por exemplo, sob a Seção 230, se cumprirem os regulamentos de moderação de conteúdo.
  12. Dividir grandes empresas, começando com o Facebook.
  13. Legislar interoperabilidade, bem como rede social e portabilidade de dados.
  14. Emular propostas 2U para penalidades anticompetitivas mais rígidas e para impedir o mau comportamento corporativo.
  15. Criar programabilidade com as principais plataformas para incentivar a inovação.
  16. Diversificar o núcleo da engenharia para incluir cientistas sociais, cientistas cognitivos e pessoas treinadas em diferentes tipos de habilidades.
  17. Criar programas de certificação de ética e graus para designers de IA.
  18. Abraçar as "tecnologias de atrito" para reduzir a natureza automática da difusão de informações e das interações com IA.
  19. Regular as plataformas para a segurança do produto, responsabilizar designers e empresas pelos produtos que projetam e implantam.
  20. Desenvolver novos modelos de negócios, incluindo modelos de assinatura e freemium.
  21. Atribuir as consequências das violações legais diretamente aos executivos corporativos, não apenas às suas empresas.
  22. Fortalecer as regulamentações adicionando impostos, como impostos sobre mídia programática, para impedir a amplificação algorítmica.
  23. Certificar-se de que os usuários consintam com o uso dos dados; proteger a privacidade dos dados.
  24. Distinguir entre a fala e o alcançar o direito à fala, além do direito à amplificação dessa fala.
  25. Limitar o lobby corporativo; aplicar regras de financiamento de campanha mais rígidas.

A seguir, o Canaltech detalha alguns dos temas de para facilitar compreensão dos tópicos abordados. Confira.

Fake news, boatos e teorias

Um dos maiores males dos últimos anos certamente foi o uso das plataformas sociais para disseminação de notícias falsas. Elas costumam circular com uma velocidade infinitamente superior às verdades e também têm cerca de 70% mais probabilidade de serem compartilhadas, conforme dados do MIT.

Como são populares entre grupos, as mentiras têm os algoritmos como aliados, por isso seu alcance é ainda maior. Os pesquisadores entenderam que a forma mais eficaz de combater isso é na raiz do problema, identificando quem são os autores e os punindo. Por outro lado, o desafio é justamente encontrar a fonte, já que o índice de viralização é tão elevado que fica difícil determinar de onde tudo começou.

Plataformas como o Facebook já tentam aplicar regras que reduzam a disseminação de notícias falsas. A maior dificuldade, segundo os estudiosos, é como identificar isso de forma rápida para evitar a disseminação antes de o estrago estar feito.

Privacidade x transparência

Para muita gente, falar de transparência e privacidade nas redes sociais é um imenso paradoxo. Afinal, quem está nas redes teoricamente tem propensão a se expor, algo que não ocorreria se ficasse de fora, mas os pesquisadores entendem que não é bem assim. Eles acreditam ser possível manter contas sociais e ainda assim resguardar seus direitos básicos de privacidade.

É possível ter privacidade e segurança nas redes sociais? (Imagem: Reprodução/Pixabay)

A professora associada da Universidade de Washington Kate Starbird disse que falta transparência algorítmica, o que permitiria conhecer como os dados são compartilhados e para qual propósito. Sem esse conhecimento, explica ela, vive-se no escuro e as pessoas não conseguem tomar decisões acertadas.

O professor do MIT Sinan Aral, que coordenou o painel dedicado a essa temática, entende que o público tem direito de saber como os dados são acessados. Isso não ocorre, mas precisa ser implantado para empoderar as pessoas e deixá-las ciente dos riscos e benefícios de estarem nas redes.

Leis e regulamentações

Já existem, em vários países, legislações com intuito de coibir práticas ilegais nas redes sociais. Isso pode ser um problema para as próprias mídias, pois fica impossível se adaptar ao cenário de cada local. O vice-presidente de Assuntos Globais do Facebook, Nick Clegg, disse que o ideal seria as nações trabalharem juntas para criar algo unificado e ideal para todo o planeta.

Clegg sugere como solução o foco na moderação de conteúdo: estabelecer padrões de comunidade e agir para remover posts ilegais com rapidez. Tudo isso com apoio de tecnologias de inteligência artificial, capazes de detectar violações das regras muito mais rápido do que os humanos.

Atualmente, há iniciativas na Índia, Estados Unidos, União Europeia e até aqui no Brasil que tentam estabelecer regras sobre como as mídias sociais devem se portar. Além do Marco Civil da Internet (Lei nº 12.965, de 23 de abril de 2014) e da Lei Geral de Proteção de Dados (Lei nº 13.709, de 14 de agosto de 2018), o cenário brasileiro tem iniciativas pontuais de parlamentares para obrigar a identificação de usuários, para evitar a suspensão de conteúdo (inclusive os considerados ofensivos ou ilegais) e até para exigir que redes sociais destinem parte de seu faturamento para a educação digital.

O problema da maioria dessas legislações é que, embora tenham boas intenções, elas não deixam claro quem seria o responsável por ditar as regras. Em tese, ficaria a cargo das autoridades, mas isso daria poderes ao governo para espionar cidadãos ou atacar opositores, como ocorre na Índia atualmente.

Modelo de negócios nada amigável

Para os especialistas, o modelo de negócios vigente nas redes sociais é projetado com base na “economia da atenção”: as mídias atraem as pessoas e os anunciantes querem se mostrar para elas. Entretanto, esse modelo nem sempre é positivo para a sociedade, porque estimula, dentre outros, o consumo desenfreado e a exposição a fatos irreais.

A solução, segundo os debatedores, seria redefinir alguns desses parâmetros. O professor adjunto de marketing da Universidade de Nova York Scott Galloway sugeriu a criação de modelos baseados em assinatura, desvinculados da publicidade. Isso é algo que o Twitter tem feito nos últimos tempos, em razão da forçada queda da verba publicitária.

O que não pode ocorrer, na visão dos especialistas, é que as melhores informações fiquem escondidas atrás de paywalls, como ocorre hoje em boa parte do jornalismo mundial. Esses sistemas que obrigam o usuário a pagar por dados confiáveis é considerado um dos responsáveis pela disseminação maciça de boatos e mentiras — afinal, essas estão disponíveis de modo aberto e amplamente acessíveis.

Algoritmos reforçam preconceitos, racismo e polarização

Há bem pouco tempo, o Twitter fez testes em seu algoritmo e descobriu que ele era racista e sexista. Claro que ninguém o programou para ser assim, mas o sistema tomou tal forma em razão do comportamento dos usuários. Na visão dos estudiosos, será preciso encontrar soluções para moderar os algoritmos e evitar que eles adentrem em caminhos perigosos.

Twitter percebeu que seu algoritmo de fotos era discriminatório (Imagem: Divulgação/Twitter)

A cofundadora do Center for Critical Internet Inquiry da UCLA, Safiya Noble, entende que no momento atual, as pessoas estão acessando a todo momento informações baseadas em algoritmos. Seja nas redes sociais, seja por mecanismo de busca, há sempre um robô responsável por apresentar resultados que ele considera relevantes para determinada pessoa.

Em razão disso, no entendimento de Noble, o discurso populista (e lucrativo) promove o racismo, a desinformação e a polarização como ferramentas para se sustentarem. Direitos humanos são relegados, autoridades são desconstruídas e temas científicos viram pautas de “direita” ou “esquerda”.

A pesquisadora do MIT Renée Richardson Gosline disse que parte do problema são os chamados “sistemas sem atrito”, nos quais as pessoas conseguem disseminar facilmente esse tipo de informação negativa. Uma solução seria dificultar essa prática, algo que muitas plataformas têm feito, ainda que de modo tímido. O WhatsApp, por exemplo, passou a limitar a quantidade de compartilhamentos de informações consideradas muito populares na rede. Isso foi feito no intuito de frear a expansão de fake news e teorias conspiratórias e já tem dado algum resultado.

O estudo completo por ser acessado neste link (em inglês). Você concorda com todas as proposições dos estudiosos? Ou acredita que algum ponto possa ser problemático?

Debata, com gentileza e educação, nos comentários sobre quais medidas as mídias sociais poderiam adotar para tornar o ambiente mais amigável para as pessoas.

Fonte: MIT

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.