Na terça-feira (7/1), Mark Zuckerberg, CEO da Meta Inc., em declaração controversa, anunciou o fim das estruturas de fact-checking nas plataformas da Meta e a substituição por um modelo mais simples de notas da comunidade, como ocorre no X (Twitter). Na ocasião, Zuckerberg alegou que a medida visa diminuir a censura e promover a liberdade de expressão – uma alternativa em razão da parcialidade dos fact-checkers.
A declaração reacendeu os debates acerca da regulação das plataformas digitais e moderação de conteúdo, em especial, considerando que o fact-checking é uma das estratégias de combate à desinformação. Despertou, ainda, discussões diplomáticas, pois o CEO da Meta se alinhou ao governo estadunidense, alegando que os Estados Unidos possuem maior proteção constitucional da liberdade de expressão do que outros países.
Parece-nos, então, que há uma tendência de retração da autorregularão e controle das plataformas digitais sobre os conteúdos da sua rede. Ante tal instabilidade dos controles adotados pelas plataformas, cabe, então, avançar nos marcos normativos pátrios acerca da regulação dos provedores de aplicação a fim de garantir segurança jurídica e efetiva proteção da liberdade de expressão aos usuários.
Dos limites do fact-checking
Como mencionado por Mark Zuckerberg, as plataformas da Meta Inc. seguirão a linha do X (Twitter) e substituirão o fact-checking por notas dos usuários. Entendemos, porém, que não será o fim da checagem de fatos, mas, na verdade, o deslocamento dessa responsabilidade das agências jornalísticas especializada para os próprios usuários. Isso contribui, inclusive, para a diminuição dos custos operacionais da Meta com os agentes profissionais de moderação de conteúdo.
Zuckerberg argumenta que a medida é necessária em razão da parcialidade dos checadores, parece negligenciar, entretanto, a parcialidade dos próprios usuários. Nesse sentido, há estudos que questionam a eficácia da checagem de fatos no combate à desinformação já que os indivíduos tendem a não questionar a credibilidade de determinada informação a menos que esta viole preconcepções pessoais.1
Ainda, estudos demonstram que as pessoas preferem informações que confirmem suas atitudes preexistentes; o que seria “exposição seletiva” (selective exposure); além de classificar informações alinhadas com crenças pessoais preexistentes mais válidas do que fatos dissonantes, trata-se do “viés de confirmação” (confirmation bias) e; por fim, estão inclinadas a aceitar informações que lhe agradam, “viés de desejabilidade” (desirability bias).2 Mesmo com a correta checagem das informações, as crenças ideológicas dos indivíduos podem impedir a aceitação da classificação de determinada notícia como “falsa”.
De fato, a subjetividade e os vieses são barreiras à eficácia da checagem dos fatos. Por isso, mais do que tentar convencer indivíduos da “verdade”, a checagem deve nortear as plataformas digitais na restrição de circulação de conteúdo inverídico, contendo sua disseminação em massa. No mais, um dos triunfos das agências especializadas em fact-checking é a transparência, pois apresentam os procedimentos adotados para chegar à informação final, contribuindo para a formação crítica do leitor.3 A produção final do jornalismo de checagem oferece maior transparência em relação às fontes empregadas na construção da notícia, uma vez que o jornalista expõe quais os recursos que utilizou para verificar se determinado conteúdo veicula dados incorretos ou não.
Conferir transparência e maior grau de objetividade possível à checagem de informações visa justamente afastar a posição de arautos da verdade, assumindo o fato de que os usuários, as agências de fact-checking e as próprias plataformas digitais estão sujeitas à parcialidade e vieses políticos. A checagem associada à transparência e controles algorítmicos para reduzir a circulação do conteúdo inverídico ainda que não seja uma “bala de prata” pode sim contribuir para o combate às fake news.
Da necessidade de retomar as discussões do PL 2630/20
Ante ao limite da eficácia da checagem de fatos, entendemos que esta, ainda que importante, não pode ser colocada como aspecto central das políticas públicas de contenção da desinformação. Ainda, a tratativa desse fenômeno, crucial para a democracia, não pode estar exclusivamente sob controle das redes sociais.
Nesse sentido, cabe retomar as frentes de trabalho para avanço das discussões do Projeto de Lei nº 2.630/2020, assim como, a análise do Supremo Tribunal Federal acerca da constitucionalidade do art. 19º do Marco Civil da Internet – importante dispositivo para a liberdade de expressão e responsabilização dos provedores de aplicação.
O PL nº 2.630/2020 pretende instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, apresentando normas, diretrizes e mecanismos de transparência a serem seguidos por provedores de redes sociais e serviços de mensageria privada. A última versão do Projeto4 prevê importantes deveres de responsabilidade e transparência por parte das plataformas digitais, incluindo, diretrizes sobre o procedimento de moderação de conteúdos e obrigação de apresentar relatórios de transparência – pilares fundamentais no combate às fake news, sendo alternativas que diminuem os riscos de censura.
Em que pese as declarações do CEO no sentido de suavizar as políticas e controles de conteúdo, é de se observar que as normas brasileiras, em especial, no âmbito eleitoral, exigem que os provedores de aplicação de internet instituam mecanismos de monitoramento e exclusão de conteúdos inverídicos (cf. art. 9º-D e 9º-E, da Resolução do Tribunal Superior Eleitoral nº 23.732/2024)5. Assim, a moderação de conteúdo, até o momento, continua sendo exigência das normas brasileiras e, por isso, os mecanismos de transparência propostos no PL nº 2.630/2020 são essenciais para preservar a liberdade de expressão.
Nesse sentido, o art. 12, do PL 2630/2020 prevê bases fundamentais do devido processo, que devem ser mantidas, quais sejam, a notificação, o direito à contestação e reparação de dano por remoção ou restrição indevida. Defendemos que este procedimento poderá auxiliar a mitigar eventuais prejuízos à liberdade de expressão em decorrência da celeridade da remoção de conteúdos inverídicos no período eleitoral.
Cabe destacar, por fim, que o debate sobre a responsabilidade das plataformas por conteúdos de terceiros também está em pauta no STF – em especial, RE 1037396, RE 1057258, ADPF 403 e ADI 55276. Tais processos visam analisar a constitucionalidade do art. 19º do Marco Civil da Internet, que dispõe que o provedor de aplicações de internet somente será responsabilizado civilmente por danos decorrentes de conteúdo gerados por terceiros se, após ordem judicial específica, não tomar providências para tornar indisponível o conteúdo.7
Ora, o art. 19º, do MCI é essencial para proteger a liberdade de expressão e prevenir a censura. A discussão sobre a constitucionalidade deste dispositivo poderá dar novos contornos sobre as obrigações das plataformas digitais acerca da moderação de conteúdo, inclusive, no durante o período eleitoral.
Considerações finais
A desinformação é um fenômeno complexo cujo enfrentamento exige atuação conjunta dos agentes políticos, das instituições democráticas e dos provedores de plataformas digitais. A disseminação articulada de fake news nas redes sociais maculam a legitimidade do processo eleitoral democrático, por isso, seu enfrentamento não deve estar sujeito às decisões unilaterais das big techs, embora também legítima a preocupação quanto à proteção da liberdade de expressão.
É essencial, portanto, retomar as discussões acerca da regulação das plataformas digitais no Brasil, em essencial do PL nº 2.630/2018. O avanço do debate entre plataformas digitais, agentes públicos e sociedade civil é essencial para articular caminhos democráticos de combate efetivo combate à desinformação. Aprofundar e avançar nesta estrutura regulatória é necessário para garantir a segurança jurídica e a manutenção da lisura do processo eleitoral.
__________
1 LAZER et.al. The Science of fake news: addressing fake news requires a multidisciplinary effort. Science, v. 359, n. 6380, pp. 1097-1096, 09 mar. 2018, p. 1095. Disponível aqui. Acesso em: 09 jan. 2025
2 Ibidem, p. 1095.
3 SANTOS, Carlos Roberto Praxedes dos; Maurer, Camila. Potencialidades e Limites do Fact-Checking no Combate à Desinformação. Comunicação & Informação. Goiânia, GO, v.23, p.1-14, mar. 2020, p.09. Disponível aqui. Acesso em: 09 jan. 2025.
4 BRASIL. Câmara dos Deputados. PL 2630/2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência. Disponível aqui. Acesso em: 09 jan.2024.
5 BRASIL. Tribunal Superior Eleitoral. Resolução 23.732, de 27 de fevereiro de 2024. Estabelece as normas para a organização e realização das eleições. Brasília, DF: Tribunal Superior Eleitoral, 2024. Disponível aqui. Acesso em: 05 jan. 2025.
6 STF. Entenda: STF julga ações contra normas do Marco Civil da Internet. Supremo Tribunal Federal, 27 nov. 2024. Disponível aqui. Acesso em: 09 jan. 2024.
7 BRASIL. Lei 12.965 de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, 2018. Disponível aqui. Acesso em: 09 jan. 2024.
Fonte: Migalhas
Deixe um comentário