top of page

Para ministro Fux, é inconstitucional responsabilizar plataformas somente em casos de descumprimento de ordem judicial

  • Foto do escritor: Neriel Lopez
    Neriel Lopez
  • 12 de dez. de 2024
  • 2 min de leitura



O Supremo Tribunal Federal (STF) retomou nesta quarta-feira (11) o julgamento de dois recursos que discutem a responsabilidade civil das plataformas da internet por conteúdos de terceiros e a possibilidade de remoção de conteúdos ofensivos ou que incitem ódio, sem a necessidade de ordem judicial.


Único a votar nesta sessão, o ministro Luiz Fux, relator de um dos casos, afirmou que a regra do Marco Civil da Internet (Lei 12.965/2014) que só permite a responsabilização dos provedores de aplicativos se descumprirem decisão judicial de remoção é inconstitucional, pois dá uma espécie de imunidade civil às empresas. Após o voto do ministro, o segundo nesse sentido, o julgamento foi suspenso por pedido de vista do ministro Luís Roberto Barroso (presidente). Na sessão anterior, o ministro Dias Toffoli, relator do outro caso, também votou para invalidar a regra.


Obrigação de remoção imediata


Fux considera que conteúdos ilícitos ou ofensivos devem ser removidos assim que as plataformas forem notificadas. O objetivo é evitar que as postagens viralizem, ou seja, ganhem visibilidade e atinjam de forma grave a reputação das pessoas. Para o ministro, a regra privilegia visualizações, o que aumenta o volume de ganhos com publicidade, em detrimento das pessoas.


O ministro propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade, caracterizadoras de crimes (injúria, calúnia e difamação) assim que foram notificadas. Nessa hipótese, o ônus de levar o caso à Justiça deve ser invertido, e o conteúdo denunciado só poderá ser republicado com autorização judicial.


Segundo ele, a indenização por demora na retirada de conteúdo ofensivo é apenas um “prêmio de consolação” para o usuário que teve sua honra atingida de forma grave. Por outro lado, pode se transformar em recompensa para o infrator, com os lucros gerados pela exposição indevida.


Monitoramento ativo


Se o conteúdo gerado por terceiros veicular discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, Fux defende que as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de notificação.


Casos concretos


No RE 1037396 (Tema 987 da repercussão geral), relatado pelo ministro Dias Toffoli, o Facebook Serviços Online do Brasil Ltda. questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social. Já o RE 1057258 (Temas 533), relatado pelo ministro Luiz Fux, o Google Brasil Internet S.A. contesta decisão que a responsabilizou por não excluir do Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais. Nos dois casos, os relatores rejeitaram os recursos apresentados pelas empresas.





Palavras-chave: STF plataformas digitais remoção de conteúdo responsabilidade civil Marco Civil da Internet


Facebook Twitter Googleplus Linkedin

Imprimir

Matéria anterior


Próxima matéria


Veja Também

Comments


Fale conosco

Obrigado pelo envio. Em breve entraremos em contato.

© 2022 por Folha Jurídica. São Paulo, Brasil

bottom of page