Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

A nova lei de combate às fake news pode bagunçar a internet no Brasil?

Por| 02 de Junho de 2020 às 10h30

Link copiado!

A nova lei de combate às fake news pode bagunçar a internet no Brasil?
A nova lei de combate às fake news pode bagunçar a internet no Brasil?

Projeto de Lei (PL) 2630/2020 ou, se você preferir o nome “artístico”: Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Se você nunca ouviu falar desta nova lei que pode ser aprovada nas próximas semanas aqui no Brasil, seria bom começar a ficar por dentro. Isso porque, segundo especialistas e principais envolvidos, ela pode - apesar das boas intenções - bagunçar o funcionamento da web tupiniquim. Aliás, ela entrará em votação no Senado já nesta terça-feira (02).

Segundo seus idealizadores, a PL tem, acima de tudo, um motivo dos mais nobres: tentar colocar ordem na balbúrdia criada pela crescente disseminação das fake news na internet brasileira - o que, de fato, tem ocorrido. Para isso, ela quer que as principais plataformas digitais (ou provedores de aplicação) - leia-se Google, Twitter e Facebook - sejam mais ativas e responsáveis na hora de eliminar conteúdos falsos.

Porém, como em toda lei que envolve responsabilidades e punição, essa PL vem gerando atritos entre quem a elaborou e quem serão os principais impactados. O Canaltech conversou com os envolvidos em torno da proposta para, nas linhas abaixo, você entender do que se trata a lei e como ela pode impactar a vida dos internautas brasileiros. Sim, a matéria é longa, mas vale a pena, até para você entender como ela pode te afetar. Confira!

Do início: o que é a PL 2630/2020?

Continua após a publicidade

Elaborada pelos deputados Felipe Rigoni (PSB-ES) e Tabata Amaral (PDT-SP), na Câmara dos Deputados, e do senador Alessandro Vieira (Cidadania-SE), no Senado, a PL tem quatro pontos principais. Você pode ler a versão completa neste link, mas, para facilitar, vamos trazer os quatro pontos principais dela logo abaixo. São eles:

Maior responsabilização das plataformas digitais no combate às fake news

O que isso quer dizer: na prática, sempre que houver a denúncia de um conteúdo desinformativo - ou fake news, se preferir - os provedores (leia-se Google, Facebook, Twitter, entre outros) devem encaminhar tal material para uma equipe de checadores, que deve verificar a veracidade ou não da notícia. Uma vez que a mesma é considerada falsa, ela deve ser rotulada como tal, enviando um alerta a todos que tiveram acesso a ela.

Importante: a notícia em si não será censurada ou apagada. No entanto, como já acontece em redes sociais como Facebook, Twitter e Instagram, ela ganhará um rótulo de “conteúdo desinformativo” e também explicações do porquê a notícia ter sido rotulada dessa forma. Esse alerta deve atingir tanto o criador, quando quem compartilhou e quem foi impactado. Esse formato terá alternativas de consulta e ainda um recurso que permitirá ao autor original apelar contra a decisão, caso o material seja considerado desinformativo.

Continua após a publicidade

Resumindo o ciclo: alguém denuncia uma fake news => o provedor coloca esse material sob checagem junto a uma equipe de verificadores => se ela for considerada falsa, ganhará um rótulo de conteúdo desinformativo, alertando todos os envolvidos pelo material (criador, compartilhadores e impactados) => o criador poderá apelar da decisão. Caso ela seja reconsiderada, o conteúdo pode voltar a ser publicado em seu formato original.

Todas as métricas que os relatórios devem trazer estão descritas neste link (Capítulo II - seções I e III).

Maior transparência por parte dos provedores

Continua após a publicidade

O que isso quer dizer: os chamados provedores de aplicação - Google, Facebook. Twitter, entre outros - devem produzir semanalmente (para períodos eleitorais) e trimestralmente - relatórios de transparência com as mais diversas informações referentes ao combate à fake news. Esses documentos ficarão disponíveis ao público nos respectivos sites - em seções como “Sobre” ou “Privacidade”, por exemplo - e devem trazer dados como:

  • Número total de postagens e de contas destacadas removidas ou suspensas, contendo os motivos da remoção, localização e metodologia utilizada na detecção da irregularidade;
  • Número total de disseminadores artificiais, redes de disseminação artificial e conteúdos patrocinados destacados, removidos ou suspensos, contendo a devida motivação, localização e processo de análise e metodologia de detecção da irregularidade;
  • Número total de rotulação de conteúdo, remoções ou suspensões que foram revertidas pela plataforma;
  • Número de contas registradas em solo brasileiro na plataforma e número de usuários brasileiros ativos no período analisado;
  • Comparação, com métricas históricas, de remoção de contas e de conteúdos no Brasil e em outros países;
  • Número de reclamações recebidas sobre comportamento ilegal e inautêntico e verificações emitidas no período do relatório, indicando a origem e o motivo da reclamação;
  • Tempo entre o recebimento das reclamações pelo provedor de aplicação e a resposta dada, discriminado de acordo com o prazo para resolução da demanda.

Todas as métricas que os relatórios devem trazer estão descritas neste link (Capítulo II - seção II).

Transparência em relação a conteúdos patrocinados

Continua após a publicidade

O que isso quer dizer: com o objetivo de garantir transparência, os provedores de aplicação devem fornecer a todos os usuários, por um de um indicador em destaque e de fácil acesso, a visualização do histórico de todos os conteúdos patrocinados com os quais o usuário teve contato nos últimos seis meses. Entre outras informações, essa rotulação deve trazer:

  • Identificação de que se trata de conteúdo pago ou promovido;
  • Identificação do pagador do conteúdo, incluindo intermediários e pagador original do serviço;
  • Direcionar o usuário para que ele possa acessar informações sobre o pagador do conteúdo, seja pessoa física ou jurídica, bem como seus dados de contato;
  • Direcionar o usuário para que ele possa acessar informações de quais as fontes de informação e os critérios utilizados para definição de público-alvo do conteúdo patrocinado;
  • Incluir dados sobre todos os conteúdos que o patrocinador realizou nos últimos doze meses, incluindo aqueles em execução no momento em que receber a propaganda.
  • Para além das regras e determinações desta Lei, propagandas políticas e eleitorais devem respeitar a legislação vigente, inclusive a Lei 9.504, de 30 de setembro de 1997.

Todas as métricas que os relatórios devem trazer estão descritas neste link (Capítulo III).

Serviços de mensagens privadas (WhatsApp, Facebook Messenger, Skype, etc)

Continua após a publicidade

Determinações: nessa seção, a PL 2630/2020 determina que os provedores de aplicação que prestarem serviços de mensageria privada (Facebook, com WhatsApp e FB Messenger, por exemplo ou o Google, com o Hangout) limitarão o número de encaminhamentos de uma mesma mensagem a no máximo cinco usuários ou grupos. Além disso, o número máximo de membros de cada grupo de usuários deve ser 256 membros.

Além disso, em período de propaganda eleitoral, estabelecido pelo art. 36 da Lei 9.504 de 1997 e durante situações de emergência ou de calamidade pública, a PL 2630 exige que o número de encaminhamentos de uma mesma mensagem fique limitado a no máximo um usuário ou grupo.

Outro ponto que chama a atenção nesta seção da PL é que, sem prejuízo da garantia da privacidade, o usuário deverá declarar ao provedor se a conta empregará disseminadores artificiais (uso de robôs); ou ainda, após a abertura de contas, se o usuário passará a utilizar aplicativos ou serviços de intermediários de disseminação a administração de contas (contratação de serviços disparos de mensagens).

Continua após a publicidade

A PL determina ainda que o provedor de aplicação de mensageria privada deverá excluir as contas de usuários que não declararem o uso de robôs de disparo de mensagens, caso o volume de movimentação e número de postagens seja incompatível com o uso humano.

Além, disso, um dos artigos da PL exige que os provedores de aplicação que prestarem serviços de mensageria privada devem utilizar todos os meios ao seu alcance para limitar a difusão e assinalar aos seus usuários a presença de conteúdo desinformativo, ou seja, de fake news, sem expor a privacidade de quem recebe, garantindo ainda “o segredo de comunicações pessoais, incluindo a garantia do segredo do conteúdo em relação aos próprios provedores”.

Para completar, as mensagens eletrônicas patrocinadas enviadas por meio de apps menssageiros como o WhatsApp, deverão dispor de mecanismos que permitam seu descadastramento pelo destinatário, obrigado o remetente a providenciá-lo no prazo de 48 horas.

Todas as métricas que os relatórios devem trazer estão descritas neste link (Seção IV).

Continua após a publicidade

Punições em caso de descumprimento

  • Advertência, com indicação de prazo para adoção de medidas corretivas;
  • Multa;
  • Suspensão temporária das atividades;
  • Proibição de exercício das atividades no país.

[ATUALIZAÇÃO]: Exigência de CPF ou RG para abertura de uma conta nas redes sociais

Nesta terça-feira (02), o senador Nelsinho Trad (PSD - MS) apresentou uma emenda à PL 2630/2020, onde em que será exigido de novos - e antigos - usuários de redes sociais a apresentação do CPF ou RG na hora de abrir uma conta em uma dessas plataformas.

Continua após a publicidade

Segundo o texto da emenda "Os provedores de aplicação [ Google, Facebook, Twitter, entre outros] devem requerer dos usuários e responsáveis pelas contas que confirmem sua identificação, no momento da criação do perfil, através da apresentação de documento de identidade válido. Os usuários de contas já existentes deverão apresentar documento de identidade válido para o provedor de aplicação onde possui registro para manutenção de seu perfil.”

É válido lembrar que a apresentação da emenda não significa que ela será aprovada junto ao texto final.

Entenderam os destaques da PL 2630/2020? Pois bem, agora vamos aos principais pontos do projeto de lei que estão gerando discórdia entre os legisladores, empresas e especialistas.

A PL 2630/2020 está sendo suficientemente discutida com a sociedade?

Continua após a publicidade

Esta é uma das principais queixas em relação à Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. É uma opinião consensual entre as entidades representativas da internet no Brasil, bem como advogados especializados em Direito Digital e várias das empresas impactadas, de que o tempo de discussão desta PL junto à sociedade está longe de ser suficiente.

A consulta pública da lei começou no último dia 08 de maio e será encerrada em 08 de junho, ou seja, ela oferece apenas um mês de debate entre os segmentos da sociedade.

“Para ficarmos em apenas um exemplo, o Marco Civil da Internet no Brasil demorou quatro anos entre discussões junto à sociedade para ser elaborado. E, ainda assim, mesmo sendo uma referência para outros países do mundo, ela ainda precisa de aperfeiçoamentos constantes”, afirmou Marcos Dantas, professor titular da escola de Comunicação da UFRJ e membro do CGI.br, o Comitê Gestor da Internet no Brasil. “Essa PL, ainda que bem intencionada, é um assunto extremamente complexo e não pode ser tocado com essa rapidez. Não é possível discutir um tema dessa natureza, com responsabilidade, em apenas um mês, ainda mais quando o país enfrenta uma pandemia”, completa.

Continua após a publicidade

A opinião de Dantas é corroborada por Francisco Brito, diretor do InternetLab, centro independente de pesquisa interdisciplinar nas áreas de direito e tecnologia. Especialista no monitoramento de políticas públicas ligadas à tecnologia, ele afirma:

“Os bons projetos que tivemos para regulamentar a internet no Brasil foram aqueles que foram gestados com o tempo, amplamente discutidos e com diferentes hipóteses testadas. E isso não está sendo feito agora. Não há sequer uma comissão instalada para o debate. Além disso, há ainda uma questão de diagnóstico que essa lei não toca. Qual é exatamente o problema? Há vários sintomas: há problema dos boatos, um problema de crise de confiança em relação à imprensa e também de polarização política. E as pessoas falam dessa PL como se ela fosse resolver essas duas últimas questões, além das fake news. E não é o caso. Até porque todos estão conectados entre si”.

No entanto, para Felipe Rigoni (PSB-ES), um dos responsáveis pela PL 2630, o tempo de discussão não é exatamente o fator mais relevante para que o projeto tenha sucesso. Em entrevista ao Canaltech, ele declarou:

“Temos vários projetos que demoraram anos em discussões e foram terríveis na execução. E o inverso também aconteceu. Nós abrimos o diálogo com especialistas, juristas, associações da sociedade civil, justamente para termos o melhor projeto possível tecnicamente. Então acreditamos que estamos conseguindo fazer um debate profundo, mesmo em apenas um mês”. 

No entanto, a visão de Rigoni é rebatida pela CGI.br. Em nota divulgada na última segunda-feira (1º), a entidade foi clara e destacou “a importância do aprofundamento dos debates a respeito do gerenciamento e moderação de conteúdos pelos provedores, bem como a relevância e as graves consequências que o objeto dos projetos poderá vir a ter para direitos fundamentais, como a liberdade de expressão e a vedação à censura”.

Por isso, a CGI.br informou que foram enviados ofícios aos Presidentes da Câmara Federal e do Senado e aos líderes dos partidos no Congresso Nacional, “recomendando que se ampliem e aprofundem os debates, com a participação efetiva do CGI.br, assim como de todos os agentes interessados, antes que matéria de tamanha relevância para a garantia das instituições democráticas do país seja votada”.

A PL 2630/2020 complementa ou entra em conflito com o Marco Civil da Internet?

Essa é outra questão observada pelos especialistas consultados pelo Canaltech. Para eles, ao invés de complementar o Marco Civil da Internet, a PL 2630 atropela algumas de suas atribuições, principalmente na revisão de responsabilização pelas fake news, o que pode gerar imbróglios jurídicos futuros.

“A Lei invade competências que inclusive já são previstas no ordenamento civil e que possuem medidas competentes e hábeis para resguardar os interesses daqueles que se mostram ofendidos ou que são atingidos por uma determinada notícia falsa”, afirmou Gustavo Quedevez, sócio do BVA Advogados e advogado especializado em Direito Digital. “É um risco jogar essa responsabilidade para os provedores internet, redes sociais ou afins. Eles deverão atuar em conjunto com ‘verificadores de fatos independentes’, mas quem seriam esses? E, além de tudo, a meu ver a PL ainda atribui uma competência do Estado (outorgada para o Ministério Público, como fiscal da Lei) para terceiros que sequer sabemos que competências têm para poder exercer essa prática”.

Já para Paulo Perrotti, advogado especializado em direito digital e head da LGPDSolution, a PL 2630 não apenas é redundante, como também extrapola o Marco Civil da Internet e até mesmo a Constituição Federal:

“Essa PL será um instrumento de monitoramento que, potencialmente, pode se transformar em censura e intervenção na privacidade do cidadão. Com a justificativa de se combater as fake news, está sendo promovida uma regulação que pode infringir a intimidade e livre expressão do usuário”.

Perrotti diz ainda: “Veja que o regime de responsabilidades é estabelecido pelo Marco Civil da Internet, em especial o quanto reza o artigo 19: ‘com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviços e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário’. Ou seja, o Marco Civil da Internet já estabelece uma regra no caso de infrações causadas na internet. Basta que haja uma denúncia ao provedor. Caso a infração continue e não seja excluída pelo provedor, ele será responsabilizado pela negligência”, completa o especialista.

A responsabilidade dos checadores e “quem vigia os vigilantes?”

Um dos principais - e mais controversos pontos da PL 2630 - é delegar às equipes de checadores, atreladas a provedores como Google, Twitter e Facebook, a missão de definir o que é e o que não é fake news. E por uma série de motivos.

Primeiro, as notícias falsas abrangem um escopo amplo de assuntos, que podem variar da pandemia da COVID-19, até política, esportes, história, entre muitos outros. A primeira dúvida que recai sobre a efetividade deste projeto de lei é: há checadores em número suficiente que poderão ficar à disposição das plataformas para dar conta de um alto número de denúncias de fake news?

Para o deputado Felipe Rigoni, um dos relatores do projeto de lei, a resposta é sim. “Um dos benefícios que a PL 2630 pode trazer é fomentar o número de agências verificadoras, gerando mais empregos”, afirmou ele. “Além disso, a lei prevê que os verificadores sigam um código de ética do Jornalismo e também sigam padrões de qualidade como o da IFCN (sigla em inglês para Rede Internacional de Verificação de Fatos)”.

Para além da alta de demanda de verificadores que a nova lei exigirá, cabe uma pergunta que podemos parafrasear dos quadrinhos de Watchmen, criados por Alan Moore: quem vigia os vigilantes? Ou no caso: quem vigia os checadores?

Para essa questão, até mesmo Rigoni não tem uma resposta definitiva.

“Uma das possibilidades para garantir um processo de checagem isento é realizar a verificação em pares. Para realizar qualquer correção, pelo menos dois verificadores precisam checar a notícia. Algo que funcionaria de forma semelhante a um colegiado do Judiciário”, afirmou ele. “Podemos também colocar o CGI.br nesse processo para estabelecer critérios mínimos aos verificadores”. 

Francisco Brito, da InternetLab, no entanto, aponta outro problema para além da questão se os checadores darão conta ou não da demanda: a falta de critérios mais claros que dizem o que são ou não fake news.

“Essa PL empurra pras plataformas a função de fiscalizar, sem especificar direito o que são fake news. Tudo está muito amplo, muito genérico”, afirma ele. “Você não deve incentivar essas plataformas a fazer essa filtragem de conteúdo a partir de conceitos genéricos, porque, em caso de dúvida, elas vão retirar o conteúdo - até mesmo os legítimos - para não terem problemas lá na frente”. 

Aplicativos de mensagens: a nova lei mira os robôs

Se existe uma briga que já vem de alguns anos entre as empresas de Tecnologia e a Justiça brasileira (e de outros países) essa é aquela que envolve os aplicativos de mensagens. São diversos os casos de pedidos de juízes que querem ter acesso à conversas - principalmente as que ocorrem no WhatsApp - para ajudar na investigação de crimes.

No entanto, as empresas que administram esses apps recusam tais solicitações, com a justificativa de que é impossível interceptar tais mensagens, já que a criptografia ponta a ponta, a mais usada em apps do gênero, impede que essas conversas sejam interceptadas ou lidas, já que apenas os interlocutores conseguem visualizá-las.

Contudo, para além dessa questão entre messengers e Justiça, outro problema, um pouco mais recente, ajudou a colocar o WhatsApp, Facebook Messenger e outros na mira da PL 2630: o uso de robôs que fazem disparos em massa de mensagens, sendo que muitas delas têm o objetivo de espalhar a desinformação. Essa prática ganhou visibilidade no Brasil a partir das últimas eleições presidenciais, quando a chapa do hoje presidente eleito, Jair Bolsonaro, foi acusada de lançar mão dessa estratégia para atingir seus adversários políticos.

Para o deputado Felipe Rigoni, o principal, a PL 2630 mira justamente na questão dos robôs. Para ele, o objetivo da lei é combater o uso indiscriminado da prática. “Nosso projeto de lei tem dois objetivos principais: limitar o encaminhamento de mensagens e identificar aqueles que usam os robôs de disparo de forma ilegal”, disse. “Além disso, queremos que todos que queiram usar esses robôs, precisem se identificar e informar junto aos provedores se pretender utilizar esse recurso. E, claro, queremos que os provedores excluam rapidamente aqueles que são pegos espalhando desinformação. Eles têm tecnologia para isso. Estamos estudando até mesmo a possibilidade de identificação da primeira pessoa que encaminha uma notícia, mas esse fator ainda não está previsto na PL”.

O Canaltech conversou com uma das plataformas que seriam afetadas por essa nova lei. Sem querer se identificar, o representante da empresa foi claro: “Será impossível praticar o que determina a lei no caso dos aplicativos de mensagens, principalmente por causa das questões de criptografia - o que já vem sendo discutido há tempos com os representantes públicos”.

Efeito inverso: a nova lei pode trazer pode censurar a liberdade de expressão

O Canaltech conversou com diversos provedores que seriam afetados diretamente pela nova lei. E todos foram unânimes em afirmar dois fatos: o primeiro é que é se trata de uma tarefa impossível checar todas as denúncias de fake news manualmente, ou seja, deixá-las a cargo de verificadores. Por mais pessoas que se tenha em uma equipe de fact checking, o número de conteúdos a serem checados ultrapassa - e muito - o razoável. “Apenas em uma de nossas plataformas, são carregados 500 horas de vídeo por minuto. Como checar esse volume manualmente?”, questiona um dos representantes desses provedores, que não se quis se identificar.

“Além disso, com a exigência da lei em elaborarmos relatórios de transparência cheios de informações e em curtos espaços de tempo, teremos uma equipe ainda menor para checar as fake news”. 

E na impossibilidade da checagem no “olhômetro”, os representantes desses mesmos provedores atentam para o segundo fato: caso a PL 2630 seja aprovada, todos eles utilizarão de forma muito mais intensa a tecnologia de aprendizado de máquina (ou machine learning) para realizar a checagem das supostas fake news denunciadas. E é aí que mora o perigo para a liberdade de expressão.

Isso porque o machine learning, em seu atual estágio de desenvolvimento, não consegue analisar contextos, ironias ou outras sutilezas que apenas o olhar humano é capaz. Com isso, há grandes chances de textos e outros tipos de conteúdos legítimos serem rotulados como fake news ou material desinformativo. “O machine learning é muito bom para o combate a robôs, comportamento técnico da conta e quais denúncias devem ser olhadas primeiro”, afirmou o representante de outra dessas plataformas, mas que também pediu anonimato. “Para análise de conteúdo, o olhar humano é a melhor solução pelo menos por enquanto”.

Por isso, para não terem de enfrentar as punições previstas pela PL, os provedores tendem a programar suas tecnologias de machine learning para rotular preventivamente conteúdos e contas como fake ao menor sinal de dúvida. Com isso, a possibilidade de um texto opinativo ou até mesmo uma piada, serem classificados como desinformação é grande.

“Ao empurrar para as plataformas a responsabilidade de resolver o problema das fake news, o governo está criando um novo problema, que é o da liberdade de expressão”, afirma Francisco Brito da InternetLab. “As plataformas não apenas não vão resolver essa questão, como também, ao se sentirem ameaçadas por essa lei, vão simplesmente apagar conteúdos que apresentarem o mínimo de dubiedade. Elas vão resolver o problema delas primeiro e pronto”. 

E sim, pode haver contestação na Justiça

Caso a PL 2630/2020 seja aprovada, ela prevê que os provedores terão 90 dias para se adaptar. No entanto, aqueles com os quais o Canaltech conversou não descartam acionar a Justiça para impedir que a lei entre em vigor, pelo menos no formato atual. “Nós não descartamos a possibilidade de apelarmos [à Justiça]”, afirmou um deles. “Isso ainda está em discussão, mas temos essa opção no horizonte”.

Outro desses provedores afirmou que, antes de apelar à Justiça, o maior desejo da empresa é o diálogo:

“Nós não queremos [apelar judicialmente contra a lei], mas se precisar o faremos. Mas, acima de tudo, estamos abertos ao diálogo. Na Europa, leis envolvendo fake news levaram anos para serem discutidas, ouvindo todos os envolvidos, criando-se uma auto-regulação,  desenvolvendo códigos de conduta. E ainda assim, muitas delas são criticadas por deletarem excessivamente e censurarem publicações preventivamente, como é o caso da Alemanha”.

Por fim, para o deputado Felipe Rigoni, um dos responsáveis pela elaboração da PL 2630/2020 na Câmara, todos os provedores têm capacidade técnica de executar o que a sua lei pede. Para ele, na verdade, o problema é outro: dinheiro. “Plataformas como Google e Facebook estão resistentes a PL 2630 porque realizar essas mudanças geram maiores custos e eles não querem gastar mais”, declarou. “Esses provedores já fazem o que está na PL. Nossa lei só exige mais transparência e que essas empresas apliquem as medidas corretivas de forma mais estruturada. Esse projeto está sendo pensado e desenhado há oito meses e temos certeza de que ele pode ser posto em prática. Mas estamos abertos ao diálogo para eventuais mudanças. Vamos conversar”, completa.