Conteúdos ilícitos como racismo, pedofilia e ataques à democracia deverão ser removidos após notificação, sem necessidade de ordem judicial

Os ministros do Supremo Tribunal Federal (STF) chegaram a um acordo nesta quinta-feira (26/6) sobre os parâmetros a serem seguidos a partir da ampliação da responsabilidade civil das plataformas digitais quanto às publicações feitas por usuários. De acordo com o consenso firmado na Corte, as big techs passam a ter mais responsabilidade sobre o conteúdo de terceiros que circula em seus ambientes.

A partir de agora, como regra geral, as empresas devem retirar os conteúdos criminosos assim que houver a notificação do ofendido, sem necessidade de ordem judicial, caso não o façam, podem ter que reparar danos, como pagar indenizações. Antes, isso só ocorria após o descumprimento de uma ordem judicial de retirada.

O acordo foi construído em um almoço promovido pelo presidente do STF, Luís Roberto Barroso, que durou mais de quatro horas na sala da presidência. Antes da leitura da tese, Barroso ponderou que a tese foi construída dentro de “consensos possíveis” e lembrou das divergências dos ministros Edson Fachin, André Mendonça e Nunes Marques. “Foi uma solução equilibrada e moderada, preservando a liberdade de expressão, sem criar um abismo da incivilidade”, disse o presidente.

O tema foi discutido no julgamento de dois recursos que envolviam moderação de conteúdo e a constitucionalidade do artigo 19 do Marco Civil da Internet. Como a discussão se deu em repercussão geral, o que foi decidido valerá para todas as instâncias judiciais daqui para a frente.

O que muda

O STF aumentou a responsabilidade e os deveres das plataformas, principalmente em relação a conteúdos considerados sensíveis. Havia uma leitura entre a sociedade civil, ministros do STF e governo de que o artigo 19 Marco Civil da Internet estava insuficiente e defasado para o combate as fake news, violência e discursos de ódio, por isso, seria necessária uma nova interpretação da lei para tentar melhorar o ambiente virtual.

Da forma como foi construída no STF, a regra geral de responsabilidade das big techs passa a ser o artigo 21 do Marco Civil da Internet, antes restrito às publicações que violam a intimidade por postagens de imagens com cenas de nudez ou atos sexuais. Inclusive no caso das contas inautênticas.

Contudo, há exceções, pois o artigo 19 não foi afastado em sua integralidade. O artigo 19 será aplicado nas hipóteses de crime contra a honra, sem prejuízo da possibilidade de remoção por notificação extrajudicial. O artigo 19 também aplica-se aos provedores de serviços de e-mail, de reuniões fechadas por vídeo ou voz (como o Zoom e Google Meets) e mensageria instantânea (como Whatsapp e Telegram)– exclusivamente no que diz respeito às comunicações interpessoais.

As empresas devem derrubar de forma imediata posts com conteúdos ilícitos considerados graves em um rol taxativo, como em publicações sobre racismo, homofobia, pedofilia, ofensas à democracia, pornografia infantil, entre outros. Contudo, a responsabilidade civil da plataforma só surgirá no caso de falha sistêmica, ou seja, quando a empresa deixar de adotar medidas de prevenção ou remoção dos conteúdos.

De acordo com a decisão do STF, fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos criminosos circulados por meio de anúncios e impulsionamentos pagos; ou por rede artificial de distribuição, como chatbot ou robôs.

Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. As empresas de internet ficarão excluídas de responsabilidade se comprovarem que atuaram de forma diligente e em tempo razoável derrubar o conteúdo.

Responsabilidade subjetiva

A responsabilidade das empresas será subjetiva, isto é, exige a comprovação da culpa ou dolo da big tech para que ela seja obrigada a reparar o dano causado. Esse ponto preocupava as empresas porque no voto de um dos relatores, o do ministro Dias Toffoli, foi trazida a responsabilidade objetiva – obrigação de reparação independentemente da comprovação de culpa.

A partir da crise gerada entre o STF com big techs, como o X no ano passado, os ministros obrigam de forma clara que as empresas com atuação no Brasil devem ter sede e representante legal no país, com identificação e informações para contato.

Ainda, as big techs deverão editar autorregulação com sistema de notificações, devido processo legal e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.

Em relação aos marketplaces, as empresas respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei 8.078/90). Os ministros também fizeram um apelo ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.

A responsabilização das plataformas digitais por conteúdos de usuários foi julgada em dois recursos extraordinários com repercussão geral – o RE 1.037.396 (Tema 987) e o RE 1.057.258 (Tema 533).

Repercussão

O Google, autor de um dos recursos, informou que, ao longo dos últimos meses, vem manifestando suas preocupações sobre mudanças que podem impactar a liberdade de expressão e a economia digital. “Estamos analisando a tese aprovada, em especial a ampliação dos casos de remoção mediante notificação (previstos no Artigo 21), e os impactos em nossos produtos. Continuamos abertos ao diálogo”

A Meta, dona do Facebook, autor do outro recurso, afirmou que a companhia está preocupada com as implicações da decisão do STF sobre a liberdade de expressão e nas empresas que usam os seus serviços. “Enfraquecer o Artigo 19 do Marco Civil da Internet traz incertezas jurídicas e terá consequências para a liberdade de expressão, inovação e desenvolvimento econômico digital, aumentando significativamente o risco de fazer negócios no Brasil”.

O advogado-geral da União, Jorge Messias, comemorou a decisão do STF. “A decisão atende, em grande medida, os pedidos feitos pela AGU nos recursos. Não é possível admitir que provedores se eximam de qualquer responsabilidade por conteúdos ilícitos que, embora não sejam por eles criados, geram lucros com seu impulsionamento e violações de direitos fundamentais”.

Fonte: Jota

Deixe um comentário