O Supremo Tribunal Federal (STF) voltou a analisar, nesta quarta-feira (11), dois recursos que abordam a responsabilidade civil das plataformas online em relação a conteúdos de terceiros e a possibilidade de eliminar conteúdos ofensivos ou que incitem ódio, sem a necessidade de uma ordem judicial prévia.
Voto do relator e suspensão do julgamento
O único a se manifestar nesta sessão foi o ministro Luiz Fux, que atua como relator de um dos casos. Ele declarou que a disposição do Marco Civil da Internet (Lei 12.965/2014), que limita a responsabilização dos provedores de aplicativos somente em caso de desobediência a uma ordem judicial, é inconstitucional, conferindo uma espécie de imunidade civil às empresas. Após Fux proferir seu voto, o segundo em concordância com essa visão, o julgamento foi interrompido devido a um pedido de vista do presidente do STF, ministro Luís Roberto Barroso. Na sessão anterior, o relator do outro caso, ministro Dias Toffoli, também se posicionou contra a regra.
Remoção imediata de conteúdos ofensivos
Fux argumenta que conteúdos ilegais ou que ofendem devem ser eliminados logo que as plataformas sejam notificadas, com a intenção de prevenir que tais postagens se espalhem e comprometem gravemente a reputação das pessoas. Para ele, a atual regra prioriza a visualização das postagens, aumentando os lucros publicitários em detrimento das vítimas.O ministro sugeriu que as empresas sejam obrigadas a retirar conteúdos prejudiciais à honra, imagem e privacidade, que constituem crimes como injúria, calúnia e difamação, imediatamente após a notificação. Nessa situação, a responsabilidade de levar o caso à Justiça deveria ser invertida, e o conteúdo em questão só poderia ser reposto com autorização judicial.Ele também mencionou que a indenização por atrasos na remoção de conteúdos ofensivos é, na verdade, um mero prêmio de consolação para o usuário que sofreu um ataque à sua honra, podendo, por outro lado, se tornar uma recompensa para o infrator, dado os lucros provenientes da exposição indevida.
Monitoramento proativo das plataformas
Fux defende que, se o conteúdo de terceiros contiver discursos de ódio, racismo, pedofilia, incitação à violência ou apologia à violência contra o Estado Democrático de Direito e ao golpe de Estado, as plataformas devem realizar um monitoramento ativo e remover tais conteúdos imediatamente, sem esperar por notificações.
Exemplos de casos em análise
No caso RE 1037396 (Tema 987 da repercussão geral), relatado por Dias Toffoli, o Facebook Serviços Online do Brasil Ltda. questiona uma decisão do Tribunal de Justiça de São Paulo (TJ-SP) que ordenou a exclusão de um perfil falso da rede social. Em outro caso, o RE 1057258 (Temas 533), sob a relatoria de Luiz Fux, o Google Brasil Internet S.A. contesta uma decisão que a responsabilizou por não remover do Orkut uma comunidade que ofendia uma pessoa e que determinou a reparação por danos morais. Em ambos os casos, os relatores negaram os recursos propostos pelas empresas.