Vivemos em uma era marcada pela hiperdigitalização, na qual nossas vidas estão cada vez mais integradas ao ambiente digital. A expansão das plataformas digitais e o avanço acelerado das tecnologias têm redefinido profundamente o tecido social e político das sociedades contemporâneas.1 Essas empresas assumiram um papel central nas interações humanas, adquirindo uma influência sem precedentes, com potencial para moldar opiniões, influenciar comportamentos e até impactar processos democráticos. Essa concentração de poder tem levantado preocupações significativas sobre os desafios que surgem para a proteção dos direitos fundamentais e a preservação das liberdades individuais e coletivas.

Com o crescimento exponencial das plataformas digitais e a centralização das interações humanas em seus ecossistemas, o papel dessas empresas foi gradualmente se transformando. Inicialmente, as plataformas eram vistas como meras intermediárias neutras2, que apenas facilitavam o fluxo de informações entre usuários sem interferir ativamente no conteúdo que era gerado, compartilhado ou consumido. Essa neutralidade presumida as eximia de maior responsabilidade sobre os impactos do conteúdo disseminado em suas redes.

No entanto, com o avanço das tecnologias de moderação e curadoria de conteúdo, as plataformas assumiram um papel mais ativo e influente. Utilizando algoritmos sofisticados, essas empresas passaram a priorizar, recomendar e até mesmo restringir determinados conteúdos, conforme critérios muitas vezes pautados por interesses comerciais ou padrões de relevância determinados de maneira unilateral. Assim, as plataformas passaram a atuar de forma análoga a editoras de conteúdo, moldando diretamente as experiências dos usuários e o alcance de ideias, opiniões e informações.

Esse papel ativo trouxe novos desafios e questionamentos, pois, ao mesmo tempo em que viabilizam o acesso a uma ampla diversidade de informações, as plataformas também possuem o poder de silenciar vozes, promover desinformação e amplificar conteúdos sensacionalistas. Sua capacidade de influenciar diretamente o debate público3, e até processos democráticos (como o famoso caso Cambridge Analytic, por exemplo) demonstram que seu impacto vai muito além do papel de intermediadoras, exigindo uma reflexão sobre sua responsabilidade.

Fato é que essa transição das plataformas digitais, que ao longo do tempo deixaram de ser meras intermediárias para assumirem um papel ativo como editoras de conteúdo, coloca em evidência a inadequação do art. 19 do MCI – Marco Civil da Internet diante da realidade atual. O modelo regulatório concebido há quase uma década baseava-se na ideia de que as plataformas seriam espaços neutros para o compartilhamento de informações, sem interferência significativa no que era produzido e consumido por seus usuários. Contudo, o cenário atual demonstra que essas empresas não apenas facilitam o fluxo de informações, mas também influenciam ativamente na sua curadoria, priorização e alcance, transformando-se em verdadeiros agentes de poder no ambiente digital.

Essa mudança de paradigma expõe as limitações do art. 19 do MCI, que, apesar de ter sido estruturado também com o objetivo de proteger a liberdade de expressão, não previu o papel ativo que as plataformas digitais viriam a desempenhar. Esse cenário leva à reflexão sobre a necessidade de equilíbrio entre direitos fundamentais, evidenciando que não é possível tratar a liberdade de expressão como hierarquicamente superior a outros direitos igualmente essenciais.

A regra que condiciona a responsabilização civil das plataformas apenas ao descumprimento de uma ordem judicial específica, conhecido como o modelo de “Notice and Take Down”, parece cada vez mais insuficiente para enfrentar a complexidade das questões que emergem no ambiente digital atual. A disseminação de desinformação, discursos de ódio e outros conteúdos ilícitos que podem causar danos coletivos e individuais exige uma abordagem mais proativa e responsiva, que leve em consideração o impacto sistêmico das decisões das plataformas e sua responsabilidade como agentes ativos no ecossistema digital.

A questão central é que o modelo atual, concebido para proteger as plataformas contra uma “sobrecarga de responsabilidades”, hoje pode ser visto como uma barreira para a efetividade da proteção de outros direitos fundamentais. Com a influência cada vez maior das plataformas sobre o debate público, o discurso cívico e os processos democráticos, torna-se evidente que é necessário atualizar o arcabouço regulatório para lidar com os desafios impostos pela transformação tecnológica e social.

Diante desse contexto, cresce a pressão por uma abordagem regulatória que não apenas preserve a liberdade de expressão, mas também exija das plataformas um papel mais responsável e transparente. É necessário reconhecer que essas empresas têm recursos tecnológicos e financeiros suficientes para implementar sistemas mais eficazes de moderação de conteúdo e prevenção de danos, sem que isso comprometa direitos fundamentais.

Esse modelo de regulamentação mais robusta é o caminho que já está sendo trilhado por outros países. O DSA – Digital Services Act, implementada pela União Europeia, é um exemplo relevante de como o equilíbrio entre liberdade de expressão e responsabilidade pode ser alcançado. O DSA introduziu medidas como a exigência de auditorias regulares, maior transparência nos algoritmos e práticas de moderação, além de mecanismos de reparação para usuários prejudicados por decisões das plataformas. A lei também exige que grandes plataformas realizem avaliações de riscos sistêmicos, levando em conta os impactos de suas operações em direitos fundamentais e processos democráticos. Outro exemplo significativo é a legislação alemã conhecida como NetzDG – Netzwerkdurchsetzungsgesetz, que obriga plataformas a remover rapidamente conteúdos ilegais, mediante denúncias.

Essas legislações apontam para um novo paradigma regulatório, em que as plataformas digitais passam a ser vistas como agentes ativos, com responsabilidades proporcionais à sua influência. Inspirar-se nesses modelos pode ser um passo importante para o Brasil, considerando a necessidade urgente de atualizar o Marco Civil da Internet e trazer respostas mais adequadas para os desafios da hiperdigitalização.

Fato importante a se destacar é que o tema está agora sendo analisado pelo STF, que está justamente julgando a constitucionalidade do art. 19 do MCI em dois processos correlatos.4 O tribunal está diante da tarefa de decidir se o modelo atual de responsabilização das plataformas é suficiente para lidar com a complexidade do ambiente digital contemporâneo, ou se é necessário estabelecer novos parâmetros para equilibrar a liberdade de expressão e a proteção de outros direitos fundamentais. A decisão do STF terá repercussões profundas, pois definirá os limites das responsabilidades das plataformas digitais e influenciará diretamente a regulamentação da internet no Brasil. Este é, sem dúvida, um momento histórico para o futuro do ambiente digital no país.

Enquanto o STF avalia a constitucionalidade do art. 19 do Marco Civil da Internet ou uma interpretação conforme, o debate sobre a regulamentação das plataformas digitais também avançou na Comissão de Reforma do Código Civil, onde foram propostos diversos pontos sobre a responsabilidade destas e um sistema de ponderação, destacando o capítulo “Do Direito ao Ambiente Digital Transparente e Seguro”. Esse capítulo introduz diretrizes e obrigações específicas para as plataformas digitais, reconhecendo seu papel central no ecossistema digital e a necessidade de maior transparência, responsabilidade e diligência em suas operações.

Foram incluídas uma série de responsabilidades internas, estabelecendo normas que buscam não apenas garantir a transparência e a segurança no ambiente digital, mas também alinhar suas operações com os direitos fundamentais. Entre essas responsabilidades, destacam-se obrigações específicas para as plataformas digitais e plataformas digitais de grande alcance5, que deverão adotar medidas de conformidade de seus sistemas com os direitos da personalidade, além de realizar análises, identificação e avaliação de riscos sistêmicos.

Ademais, há previsão de maior incentivo a um direito a um ambiente digital seguro e confiável, fundamentado em princípios gerais como transparência, boa-fé, função social e prevenção de danos. Esses princípios não apenas estruturam as obrigações das plataformas digitais, mas também estabelecem uma base ética e jurídica para a governança do ambiente digital.

Para garantir esses direitos, as plataformas deverão adotar medidas de diligência, demonstrando a conformidade de seus sistemas com os direitos de personalidade, como a proteção da honra e da dignidade, e com os direitos à liberdade de expressão e de informação. Entre as obrigações específicas, destaca-se a realização de avaliações de riscos sistêmicos, que visam identificar e prevenir danos potenciais decorrentes de suas operações, como a disseminação de conteúdos ilícitos, por exemplo.

A proposta também vislumbra que há a necessidade de mecanismos eficazes para que os usuários possam exercer seus direitos. Estas, deverão então, oferecer canais de denúncia acessíveis em idioma local, permitindo que pessoas afetadas por conteúdos ilícitos notifiquem diretamente a empresa. Além disso, é obrigatório que as plataformas informem aos denunciantes o resultado de suas reclamações, promovendo maior transparência e confiança no processo.

Logo, sendo a plataforma notificada sobre a potencial ilicitude do conteúdo, esta deve adotar as providências necessárias para sua indisponibilização. Essa regra reforça a ideia de que as plataformas possuem um papel ativo e devem responder prontamente às demandas que envolvam violações de direitos.

Em outro ponto, há previsões expressas sobre a forma da responsabilização destas plataformas, em uma abordagem de transição de um modelo de neutralidade para um de responsabilidade ativa, reconhecendo o papel central das plataformas digitais no ecossistema contemporâneo:

“Art. As plataformas digitais podem ser responsabilizadas administrativa e civilmente:

I – pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade da plataforma;

II – por danos decorrentes de conteúdos gerados por terceiros, quando houver descumprimento sistemático dos deveres e das obrigações previstas neste Código, aplicando-se o sistema de responsabilidade civil nele previsto.”

Destaca-se ainda, a interpretação sistemática trazida pela proposta na parte referente à responsabilidade civil, com dispositivos que ampliam o alcance da obrigação de reparação, incluindo situações relacionadas a atividade de risco, responsabilidade indireta e prevenção de danos:

“Art. 927. Aquele que causar dano a outrem fica obrigado a repará-lo.

Parágrafo único: Haverá dever de reparar o dano daquele:

I – cujo ato ilícito o tenha causado, nos termos do parágrafo único do art. 186 deste Código;

II – que desenvolve atividade de risco especial;

III – responsável indireto por ato de terceiro a ele vinculado, por fato de animal, coisa ou tecnologia a ele subordinado.”

“Art. 927-A. Todo aquele que crie situação de risco, ou seja responsável por conter os danos que dela advenham, obriga-se a tomar as providências para evitá-los.

§ 1º Toda pessoa tem o dever de adotar, de boa-fé e de acordo com as circunstâncias, medidas ao seu alcance para evitar a ocorrência de danos previsíveis que lhe seriam imputáveis, mitigar a sua extensão e não agravar o dano, caso este já tenha ocorrido.

§ 2º Aquele que, em potencial estado de necessidade e sem dar causa à situação de risco, evita ou atenua suas consequências, tem direito a ser reembolsado das despesas que efetuou, desde que se revelem absolutamente urgentes e necessárias, e seu desembolso tenha sido providenciado pela forma menos gravosa para o patrimônio do responsável.

§ 3º Sem prejuízo do previsto na legislação especial, a tutela preventiva do ilícito é destinada a inibir a prática, a reiteração, a continuação ou o agravamento de uma ação ou omissão contrária ao direito, independentemente da concorrência do dano, ou da existência de culpa ou dolo. Verificado o ilícito, pode ainda o interessado pleitear a remoção de suas consequências e a indenização pelos danos causados.

§ 4º Para a tutela preventiva dos direitos são admissíveis todas as espécies de ações e de medidas processuais capazes de propiciar a sua adequada e efetiva proteção, observando-se os critérios da menor restrição possível e os meios mais adequados para garantir a sua eficácia.”

Com essas alterações, a reforma do Código Civil não apenas moderniza o arcabouço jurídico brasileiro estabelecendo um novo modelo de governança digital que reflete um equilíbrio entre liberdade e responsabilidade, garantindo que haja um compromisso concreto com a proteção e o respeito aos direitos dos cidadãos, mas também visa atender às demandas de uma sociedade cada vez mais digital, reconhecendo o poder significativo que as plataformas digitais exercem sobre nossas vidas, dado esse impacto, é imperativo que suas responsabilidades sejam proporcionais à sua influência.

_________

1 Byung-Chul Han, em sua obra “Infocracia: Digitalização e a Crise da Democracia”, argumenta que a digitalização da sociedade e o domínio das plataformas digitais resultaram em uma nova forma de poder que ele denomina “infocracia”. Nesse contexto, as plataformas digitais não são mais meras intermediárias neutras, mas atuam ativamente na curadoria e disseminação de informações, influenciando opiniões e comportamentos. Han observa que “o regime de informação substituiu o regime disciplinar”, indicando que o controle social agora se dá por meio da manipulação de dados e informações, o que redefine profundamente as estruturas sociais e políticas das sociedades contemporâneas.

2 Nos Estados Unidos, a atividade de moderação de conteúdo por plataformas digitais é permitida e garantida pela Seção 230 do Communications Decency Act (CDA) de 1996;

3 Shoshana Zuboff, em sua obra “A Era do Capitalismo de Vigilância”, argumenta que as plataformas digitais não apenas monitoram o comportamento humano, mas também o modificam para atender a objetivos comerciais, resultando em uma nova forma de poder que ela denomina “capitalismo de vigilância”. Zuboff afirma que “a realidade digital está redefinindo tudo o que antes era familiar, gerando novas ansiedades, perigos e violências”. Essa transformação profunda das estruturas sociais e políticas contemporâneas levanta preocupações significativas sobre a proteção dos direitos fundamentais e a preservação das liberdades individuais e coletivas.

4 Recursos Extraordinários 1.037.396 e 1.057.258, relatados pelos Ministro Dias Toffoli e Ministro Luiz Fux

5 “Art.Consideram-se como plataforma digital de grande alcance os serviços de hospedagem virtual que tenham como funcionalidade principal o armazenamento e a difusão de informações ao público, cujo nu’mero me’dio de usua’rios mensais no Brasil seja superior a dez milho~es, tais como as redes sociais, ferramentas de busca e provedores de mensagens instantâneas.”

Fonte: Migalhas

Deixe um comentário