Oito ministros já votaram; tribunal busca um consenso para a tese, que vai definir a forma de responsabilização das empresas no tema. O Supremo Tribunal Federal (STF) volta a analisar, nesta quarta-feira (25), a responsabilidade das redes sociais pelo conteúdo publicado por seus usuários. Já foram apresentados oito votos. Três ministros ainda devem se posicionar.
Há maioria para permitir que as plataformas respondam pelas postagens de terceiros, mas os ministros ainda trabalham no detalhamento da tese, ou seja, do resumo que vai orientar a aplicação da decisão.
STF forma maioria a favor de responsabilizar redes sociais
Já votaram para responsabilizar os provedores de internet os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar, Alexandre de Moraes e o presidente Luís Roberto Barroso. O ministro André Mendonça divergiu.
Nesta quarta-feira, devem ser apresentados os votos dos ministros Edson Fachin, Nunes Marques e da ministra Cármen Lúcia.
Os magistrados também trabalham na busca de um consenso, já que os ministros propuseram diferentes soluções para o regime de responsabilização das empresas.
STF retoma julgamento sobre responsabilidade das redes sociais pelo conteúdo publicado
Jornal Nacional/ Reprodução
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam acionadas por conta de danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Responsabilização das redes: casos que motivaram julgamento do STF envolvem até Orkut
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar. A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte elabora uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça. Segundo dados do Conselho Nacional de Justiça, há 344 processos suspensos, aguardando um desfecho.
“Chilling effect” permeia debate sobre moderação de conteúdo nas redes sociais
Votos dos ministros
Saiba como votaram os ministros até o momento:
Dias Toffoli
Relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet. O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
Relator, Dias Toffoli vota a favor de responsabilizar redes sociais e empresas de tecnologia por conteúdos publicados nas plataformas
Imagem: TV Globo
O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que as plataformas digitais devem ser responsabilizadas se deixarem de agir.
Luiz Fux
Relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.
Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado.
Ministro Luiz Fux em sessão da Primeira Turma do STF.
Antonio Augusto/STF
O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
Luís Roberto Barroso
O presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso. Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial.
Barroso em julgament do STF sobre responsabilidade das redes sociais
Reprodução
Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como pornografia infantil, instigação ou auxílio a suicídio, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.
André Mendonça
No voto apresentado no começo de junho, Mendonça divergiu em parte dos demais ministros. O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional.
Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos. Entre eles, que
é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita;
que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e
que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.
O ministro André Mendonça.
Gustavo Moreno/STF
Flávio Dino
Sugeriu uma tese em que prevê que a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet. Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.
Nos casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica. Segundo ele, as plataformas têm o dever de evitar que se façam perfis falsos.
O ministro do STF, Flávio Dino, durante sessão plenária na Suprema Corte.
Fellipe Sampaio/STF
Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial. Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados.
Se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.
Cristiano Zanin
Considerou que o artigo 19 do Marco Civil da Internet é “parcialmente inconstitucional”.
O ministro propôs três critérios:
no caso de conteúdo criminoso, a plataforma seria responsável por remover o conteúdo, sem a necessidade de decisão judicial;
já a aplicação do artigo 19 seria mantida para provedores neutros (sem impulsionamento);
quando houvesse uma dúvida razoável sobre licitude do conteúdo (assim, não haveria responsabilização imediata se houver a dúvida sobre a legalidade do material).
Ministro Zanin vota em julgamento sobre redes sociais
Gustavo Moreno/STF
Gilmar Mendes
Ao consolidar a maioria favorável à responsabilidade, o ministro propôs diferentes regimes de tratamento, a depender da situação em discussão. Um deles, chamado de “geral”, prevê a aplicação do artigo 21 do Marco Civil da Internet – ou seja, a retirada de conteúdos pelas plataformas quando notificadas de forma privada.
Ministro Gilmar Mendes.
Getty Images via BBC
O regime residual seria o do artigo 19 da mesma lei, com a exigência de ordem judicial para bloqueio de conteúdos para crimes contra a honra e conteúdos jornalísticos. Haveria também um regime de presunção, em casos de anúncios e impulsionamento remunerado.
Nestas situações, o entendimento é de que as empresas têm conhecimento do conteúdo ilícito e não será necessária a notificação prévia para a responsabilização. E, ainda, um regime especial, em que provedores seriam responsáveis por não bloquearem conteúdos imediatamente, no caso de crimes graves e material com potencial de dano grave à democracia.
Alexandre de Moraes
Apresentou o sétimo voto a favor de que empresas de tecnologia e redes sociais sejam responsabilizadas pela publicação de conteúdos ilegais ou criminosos.
Durante o julgamento, Moraes afirmou que as plataformas digitais devem ter as mesmas obrigações legais dos veículos de comunicação tradicionais em relação ao que publicam e mantêm no ar. Ele citou a presença de conteúdos com crimes de racismo, apologia a golpe de Estado e antissemitismo em redes sociais.
Moraes vota para responsabilizar redes sociais por posts de usuários
Reprodução/TV Globo
Moraes destacou que o julgamento não discute a limitação da liberdade de expressão, mas sim os abusos cometidos sob esse pretexto.
O ministro também criticou o papel das chamadas “big techs” na moderação de conteúdo, dizendo que são elas que controlam quais ideias ganham visibilidade.
STF retoma julgamento de responsabilidade das redes sociais sobre conteúdos nesta quarta
STF retoma julgamento de responsabilidade das redes sociais sobre conteúdos nesta quarta