Logotipo simoes_pires
Foto STF reavalia responsabilidade de redes sociais por conteúdos ilegais e abre debate sobre a violência digital
Header Grafismo

Publicações

STF reavalia responsabilidade de redes sociais por conteúdos ilegais e abre debate sobre a violência digital

09/12/2024 - Na mídia

Foto STF reavalia responsabilidade de redes sociais por conteúdos ilegais e abre debate sobre a violência digital

LexLegal | 06/012/2024 | Luiz Friggi

 

O Supremo Tribunal Federal (STF) iniciou esta semana um julgamento que pode transformar a forma como as redes sociais operam no Brasil. Em uma votação que promete impactar diretamente a liberdade de expressão e a proteção contra abusos digitais, o ministro Dias Toffoli votou a favor da responsabilização direta das plataformas pelos conteúdos ilegais publicados por usuários, sem necessidade de ordem judicial prévia.

Essa decisão questiona o Artigo 19 do Marco Civil da Internet, que atualmente protege as redes de penalizações desde que removam conteúdos ilegais após decisão judicial. Para Toffoli, essa regra é inconstitucional, e as plataformas precisam responder pelos danos causados pela manutenção de publicações prejudiciais ou pela omissão na remoção de conteúdos evidentemente ilegais.

 

O que está em jogo?

 

O julgamento coloca em xeque o equilíbrio entre liberdade de expressão, inovação digital e a necessidade de proteção contra conteúdos nocivos. O voto de Toffoli propõe que as redes sociais sejam obrigadas a remover postagens consideradas ilegais de forma imediata. Caso contrário, podem ser processadas por danos causados.

Segundo o ministro, conteúdos ilegais incluem:

  • Crimes contra o Estado Democrático de Direito;
  • Racismo e terrorismo;
  • Violência contra mulheres, crianças e adolescentes;
  • Incitação ao suicídio;
  • Infrações sanitárias;
  • Tráfico de pessoas;
  • Divulgação de informações inverídicas ou descontextualizadas capazes de causar danos, como durante eleições.
    Esse entendimento altera o atual sistema de responsabilização, que, sob o Artigo 19, só ocorre se as plataformas descumprirem ordens judiciais.

 

O impacto do Marco Civil da Internet

 

O Marco Civil da Internet foi criado em 2014 para regular a atuação na web, buscando equilibrar liberdade de expressão e responsabilidade. O Artigo 19 foi pensado para evitar censura e assegurar o direito à livre manifestação de ideias. Porém, casos recentes, como a disseminação de desinformação nas eleições, episódios de violência política e perfis falsos promovendo discursos de ódio, reacenderam o debate sobre sua eficácia.

Toffoli argumentou que o modelo atual confere uma “imunidade” às plataformas, que deveriam ser mais ativas na fiscalização de conteúdos ilegais. “Não tem como não estabelecermos hipóteses de responsabilidade objetiva. O 8 de janeiro [atos golpistas] mostra isso; novembro passado [atentado do homem-bomba] mostra isso”, afirmou o ministro.

Além disso, ele propôs que o Artigo 21 do Marco Civil, que trata de danos à intimidade, honra e vida privada, seja aplicado de forma geral, ampliando as hipóteses de responsabilização direta das plataformas.

 

Plataformas de marketplace e regras específicas

 

Além das redes sociais, o voto do relator trouxe implicações para plataformas de marketplace, como aquelas que permitem a venda de produtos. Toffoli defendeu que essas plataformas sejam responsabilizadas de forma solidária quando permitirem a comercialização de itens proibidos, como medicamentos não autorizados, agrotóxicos ilegais e dispositivos de TV pirata.

Por outro lado, serviços de e-mail, mensageria privada e aplicativos de reuniões fechadas ficaram fora da aplicação das regras de remoção imediata de conteúdo, desde que não sejam usados como redes sociais.

 

O papel do CNJ e a fiscalização

 

Caso o entendimento de Toffoli prevaleça, a implementação das novas regras será acompanhada por um órgão especializado, o Departamento de Acompanhamento da Internet no Brasil (DAI). Este será vinculado ao Conselho Nacional de Justiça (CNJ) e terá como função monitorar o cumprimento das decisões judiciais relacionadas a conteúdos digitais.

O ministro também sugeriu que o Congresso tenha até 18 meses para criar uma lei que enfrente a violência digital e a desinformação, estabelecendo um marco regulatório mais abrangente.

 

O contexto do julgamento

 

O STF analisa dois processos que questionam a constitucionalidade do Artigo 19 do Marco Civil da Internet. Um deles, relatado por Toffoli, envolve o Facebook, que busca derrubar uma condenação por danos morais relacionados a um perfil falso criado na plataforma. O outro, relatado pelo ministro Luiz Fux, discute se uma empresa que hospeda sites deve fiscalizar e remover conteúdos ofensivos sem ordem judicial.

Enquanto isso, empresas de tecnologia e redes sociais argumentam que já realizam a remoção de conteúdos ilegais de forma voluntária e que um monitoramento mais rígido seria equivalente a censura prévia. Para essas empresas, a responsabilização direta poderia inviabilizar o funcionamento das plataformas, ao impor custos e riscos jurídicos significativos.

 

Violência digital e desinformação

 

Nos últimos anos, casos emblemáticos, como a disseminação de desinformação durante as eleições de 2022 e os ataques de 8 de janeiro de 2023, têm pressionado o Judiciário a revisar as regras atuais. A desinformação se tornou uma das principais ameaças à estabilidade política e social, exigindo um equilíbrio delicado entre liberdade de expressão e controle de abusos.

Antonielle Freitas, advogada especializada em direito digital e proteção de dados, avalia que a decisão do STF pode trazer mudanças estruturais para o ambiente digital no Brasil. “A responsabilização das redes sociais é um passo importante, mas deve ser acompanhada de critérios claros para evitar excessos que possam limitar a liberdade de expressão”, diz.

 

Críticas e desafios – análise dos advogados especialistas na área

 

O voto de Toffoli também gerou debates sobre os riscos de limitar a inovação e a liberdade de expressão. Especialistas argumentam que exigir monitoramento prévio pode levar as plataformas a adotarem medidas excessivas de remoção, prejudicando debates legítimos e conteúdos críticos.

“Cabe ponderar a principal alegação das big techs: como monitorar as redes para detectar conteúdo com bases subjetivas? A inteligência artificial disponível atualmente não é capaz de fazer tal varredura. Assim, caso seja seguido pelos demais ministros em seu voto, o remédio pode ser pior que a doença, no sentido de que restará às redes sociais, para sua própria proteção, restringir ao máximo a liberdade de expressão em seus ambientes”, explica Thiago Bento dos Santos, advogado da área de direito digital da Lopes & Castelo Sociedade de Advogados.

Além disso, a criação de um órgão regulador vinculado ao CNJ levanta preocupações sobre custos e eficiência administrativa. “Qualquer regulamentação deve ser flexível o suficiente para acompanhar a evolução da tecnologia e os desafios associados”, avalia Freitas.

Para Ana Luíza Kadi, advogada no escritório Fabio Kadi Advogados, a mudança proposta traz tanto oportunidades quanto riscos. “Apesar da mudança trazer consigo uma possível diminuição de judicialização de casos que podem ser resolvidos extrajudicialmente, ela traz também a autorregulamentação das redes. Isso tira do judiciário o encargo de ponderar perdas e danos e passa para pessoas leigas, aumentando o risco de remoções injustificadas.”

Luiz Friggi, sócio do escritório Simões Pires, alerta para os perigos de limitar a liberdade de expressão. “A obrigatoriedade de remoção de conteúdo apenas por meio de notificação particular, sem exame prévio e imparcial do Judiciário, é que acabará cerceando o direito à liberdade de expressão. Não deve o STF inverter mais uma vez a lógica da censura – prévia e proibitiva, em lugar de póstuma e repressiva.”

Daniel Becker, especialista em Regulação de Novas Tecnologias, destaca o impacto da decisão na moderação de conteúdo pelas plataformas. “A criação da responsabilidade objetiva mesmo em atividades como personalização de feeds levanta preocupações sobre censura privada e subjetividade na definição de conteúdos ilícitos. Além disso, o apelo midiático do voto ignora aspectos técnicos e legais fundamentais, comprometendo a segurança jurídica.”

Na visão de Thiago Bento dos Santos, advogado especializado em direito digital, a proposta traz novos desafios. “Ao determinar a remoção de conteúdo mediante notificação extrajudicial, abre espaço para que conteúdos não necessariamente infringentes sejam removidos. Nesse caso, podemos ter a medida utilizada indevidamente para manipular o conteúdo das redes.”

Ativismo judicial e separação de poderes
Vários especialistas criticaram o ativismo judicial observado na decisão do STF. João Fábio Azevedo, do Moraes Pitombo Advogados, observa que a decisão levanta sérias preocupações sobre o avanço do Poder Judiciário em matérias de competência do Poder Legislativo. “Questões de grande complexidade e impacto social, como essas, deveriam ser objeto de um projeto de lei.”

Anderson Araújo, advogado da Goulart Penteado Advogados, argumenta que a mudança desloca o equilíbrio entre princípios constitucionais. “O maior risco desta consolidação é o aumento de solicitações de remoção de conteúdos baseadas em alegações genéricas de violação à honra e imagem, especialmente durante o período eleitoral.”

Os advogados também questionam a viabilidade prática das novas regras. “Exigir que as plataformas fiscalizem a obediência a termos subjetivos pode acarretar em análises incorretas. Atualmente, a inteligência artificial disponível não é capaz de realizar uma moderação tão subjetiva”, analisa Ana Luíza Kadi.

“Após uma década de vigência do Marco Civil, o tratamento benéfico dado às plataformas já não se justifica. No entanto, é imprescindível que mudanças estruturais sejam conduzidas pelo Legislativo e não apenas pelo Judiciário, garantindo ampla discussão democrática”, avalia João Fábio Azevedo e Azeredo.

 

Próximos passos

 

O julgamento será retomado no dia 11 de dezembro, com os votos de outros dez ministros. Se a posição de Toffoli for majoritária, o Congresso terá o desafio de criar uma legislação específica sobre violência digital e desinformação em até 18 meses.

Independentemente do desfecho, o julgamento no STF reflete um momento de transformação no Brasil, em que a sociedade busca respostas para os desafios de um mundo cada vez mais digital. O futuro das redes sociais no país pode ser redesenhado, em um esforço de equilibrar liberdade, segurança e responsabilidade.

Veja também: Demissões por justa causa por acesso a sites de apostas crescem no Brasil: entenda os impactos jurídicos

 

 

 

 

 

 

VOLTAR

Publicações relacionadas

VER TODAS
Foto STJ permite penhora de imóvel financiado para pagamento de condomínio
Grafismo Header Home

STJ permite penhora de imóvel financiado para pagamento de condomínio

01/01/1970 - Na mídia

Foto Simões Pires recebe Ricardo Amorim para discutir inovação
Grafismo Header Home

Simões Pires recebe Ricardo Amorim para discutir inovação

01/01/1970 - Eventos

Foto Milei promete acabar com 90% dos impostos da Argentina
Grafismo Header Home

Milei promete acabar com 90% dos impostos da Argentina

01/01/1970 - Na mídia