Anúncios
Em junho, o Supremo Tribunal Federal (STF) declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, legislação que trata de regras, direitos, deveres e outros pontos relacionados ao uso da internet no Brasil.
O artigo alvo da decisão da Corte diz que provedores de aplicações de internet (como redes sociais) só podem ser responsabilizados por conteúdo ofensivo ou criminoso postado pelos usuários se não cumprirem uma determinação judicial para remoção da publicação. Em outras palavras, a plataforma só poderia ser punida se mantivesse a postagem no ar mesmo com ordem contrária da Justiça.
Anúncios
Na visão do STF, essa regra se tornou insuficiente para proteger os direitos fundamentais e a democracia diante da evolução do ambiente digital e da disseminação em massa de conteúdos ilícitos.
“Como regra geral, os provedores de aplicações de internet passam a estar sujeitos à responsabilização civil nos termos do artigo 21 do Marco Civil da Internet pelos danos decorrentes de conteúdos gerados por terceiros em casos de crimes ou atos ilícitos, bastando a notificação extrajudicial [documento que faz uma solicitação sem recorrer ao Judiciário]. Essa mudança representa uma alteração paradigmática, transferindo o ônus da judicialização das vítimas para as próprias plataformas”, explica o advogado Maurício Lindenmeyer Barbieri, do escritório Barbieri Advogados.
Anúncios
O novo entendimento do STF, no entanto, diferencia o tratamento de acordo com a natureza do conteúdo ilícito. Para os crimes contra a honra (calúnia, difamação e injúria), a Corte manteve a aplicação do artigo 19, exigindo ordem judicial para a responsabilização civil das plataformas.
Essa exceção busca preservar o equilíbrio entre a proteção da honra e a liberdade de expressão, reconhecendo que manifestações de opinião, mesmo quando controvertidas, integram o debate democrático, diz Barbieri.
“É importante ressaltar que, mesmo nos crimes contra a honra, as plataformas mantêm a prerrogativa de remover voluntariamente conteúdos por notificação extrajudicial, quando identificarem violações às suas próprias políticas internas ou reconhecerem a ilicitude do material”, acrescenta.
De acordo com o advogado, uma inovação significativa da decisão é que, uma vez reconhecido judicialmente o caráter ofensivo de determinado conteúdo, todos os provedores de redes sociais deverão remover publicações com conteúdos idênticos, independentemente de novas decisões, bastando notificação judicial ou extrajudicial. Essa regra visa coibir a replicação sistemática de conteúdos já declarados ilícitos, esclarece ele.
No caso de crimes graves, o dever da plataforma é de remoção imediata do conteúdo, independente de notificação da Justiça. A lista de delitos que se enquadram nesse critério inclui condutas antidemocráticas, terrorismo, indução ao suicídio e automutilação, discriminação racial, religiosa e LGBTfóbica, pornografia infantil, entre outras.
“A responsabilização nesses casos depende da configuração de falha sistêmica, definida como a omissão em adotar medidas adequadas de prevenção ou remoção dos conteúdos ilícitos graves. O STF esclareceu que a existência isolada de conteúdo ilícito não é suficiente para ensejar responsabilidade, sendo necessária a demonstração de negligência sistemática da plataforma”, explica.
A decisão estabelece presunção de responsabilidade das plataformas em duas hipóteses específicas: anúncios e impulsionamentos pagos e uso de chatbots e robôs para disseminação de conteúdo ilícito. Em ambos os casos, as empresas responsáveis podem afastar a responsabilidade comprovando que atuaram diligentemente e em tempo razoável para tornar o conteúdo indisponível.
“Com essa decisão, o STF impõe às plataformas digitais uma série de adaptações estruturais urgentes, como a reestruturação dos Sistemas de Moderação. As empresas deverão implementar sistemas mais ágeis e eficientes de análise e remoção de conteúdos, capazes de processar notificações extrajudiciais de forma tempestiva. Isso demandará investimentos significativos em tecnologia e recursos humanos especializados”, avalia Barbieri.
O advogado destaca também que as plataformas deverão editar políticas de autorregulação que abranjam, necessariamente: sistema estruturado de notificações, procedimentos de devido processo para usuários e relatórios anuais de transparência sobre notificações extrajudiciais, anúncios e impulsionamentos.
Na avaliação de Barbieri, a mudança representa uma evolução significativa na proteção de direitos no ambiente digital. “Vítimas de conteúdos ilícitos não precisarão mais recorrer necessariamente ao Poder Judiciário, podendo obter a remoção por meio de notificação direta às plataformas. Isso representa economia de tempo e recursos, além de interrupção mais rápida da propagação de danos”, diz ele.
Outro ponto levantado pelo advogado é que a possibilidade de responsabilização civil por mera notificação extrajudicial cria um incentivo econômico para que as plataformas desenvolvam sistemas mais eficazes de moderação de conteúdo, resultando em ambiente digital mais seguro.
“A medida tende a reduzir significativamente o número de ações judiciais relacionadas à remoção de conteúdo digital, desafogando o Poder Judiciário e proporcionando soluções mais céleres para os conflitos”, aponta Barbieri.
A decisão não se aplica a marketplaces e a órgãos de imprensa, que respondem, respectivamente, ao Código de Defesa do Consumidor e à Lei do Direito de Resposta (Lei nº 13.188/2015), ressalva o advogado.
Para saber mais, basta acessar: https://www.barbieriadvogados.com/