Barroso diz que remoção de conteúdos por redes sociais deve ocorrer, em muitos casos, ‘apenas após ordem judicial’; entenda


Já apresentaram seus votos os relatores dos dois casos em discussão — Toffoli e Fux. Ambos concluíram que as plataformas devem responder por conteúdos criminosos mesmo sem decisão judicial sobre o tema. O presidente do STF, Luís Roberto Barroso, em sessão nesta quarta (14)
Antonio Augusto/STF
O presidente do Supremo Tribunal Federal (STF), ministro Luís Roberto Barroso, começou a apresentar seu voto no julgamento que discute se redes sociais devem ser responsabilizadas por conteúdos irregulares publicados por usuários nas plataformas.
Logo no início da sessão, Barroso fez um apanhado das manifestações anteriores e defendeu que tem divergências dos relatores que apresentaram seus votos anteriormente, Dias Toffoli e Luís Fux.
“Eu considero que o artigo 19 é apenas parcialmente inconstitucional. Pois considero legítimo que em muitas situações a remoção de conteúdos somente deva se dar após ordem judicial. Portanto, eu não eliminaria do ordenamento jurídico do artigo 19”, defendeu o ministro.
O artigo 19 do Marco Civil, tema em debate pelos ministros, estabelece que as plataformas digitais só serão responsabilizadas judicialmente por danos causados por conteúdos ofensivos se, depois de ordem judicial específica, não tomarem providências para retirar o material do ar.
Primeiros a votar, Toffoli e Fux entenderam que o artigo é inconstitucional (entenda os votos abaixo).
Barroso, porém, divergiu ao defender que “a remoção em caso de ofensas e crimes contra a honra não pode, a meu ver, prescindir de decisão judicial. Conteúdos relacionados à honra, ainda que se alegue e representem crimes de injúria, calúnia ou difamação, devem permanecer, na minha visão, sob o regime do artigo 19 do Marco Civil da Internet, sob pena de violação à liberdade de expressão”.
STF: Toffoli conclui voto e propõe que redes devem responder por conteúdos de usuários
Veja abaixo os detalhes dos votos dos relatores dos dois processos – os ministros dias Toffoli e Luiz Fux.
Voto de Luiz Fux
Na última quarta-feira (11), o ministro Luiz Fux apresentou seu voto.
Para o ministro, os provedores são responsáveis pelos conteúdos gerados por terceiros quando tiveram ciência “inequívoca” dos atos ilícitos. Isto é, foram informados por meios adequados e, mesmo assim, não removeram a postagem imediatamente.
De acordo com Fux, podem ser considerados conteúdos ilegais os que tratem de discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia à abolição violenta ao Estado de Direito e ao golpe de Estado. Nestas situações, considerou o ministro, há um dever de monitoramento ativo das redes sociais, ou seja, elas precisam agir para evitar os danos causados por estas publicações.
Quando a postagem for ofensiva à honra, à imagem e à privacidade (caracterizadores de crimes previstos na lei penal – injúria, calúnia e difamação), a responsabilidade civil destes provedores pode ocorrer se, havendo prévia notificação por eles por parte das vítimas e seus advogados, eles não tomarem a providência de retirar o material do ar.
Fux estabelece que as redes sociais “têm o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados”.
Voto de Dias Toffoli
O primeiro a votar foi o ministro Dias Toffoli. O magistrado considerou que é inconstitucional a regra que prevê a responsabilidade por danos das redes sociais apenas quando não cumprem a ordem judicial de remoção de conteúdo.
O ministro propôs que as plataformas sejam consideradas responsáveis por uma publicação a partir do momento em que receberem uma notificação pedindo a retirada do conteúdo, por ser falso ou ofensivo.
Toffoli previu ainda algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas circunstâncias, as big techs têm o dever de agir para evitar os danos. Dessa forma, se não fizerem isso, estão sujeitas à responsabilidade objetiva.
Esta é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes.
São situações em que os provedores devem agir, mesmo sem notificação extrajudicial:
▶️quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo for patrocinado).
▶️quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados;
▶️quando a irregularidade envolver direitos autorais. Também nesta situação, a empresa responde junto com a pessoa que fez a publicação ilegal.
▶️quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivar violência física, divulgação de notícias falsas sobre o processo eleitoral.
O ministro fixou que, se a empresa tiver dúvidas sobre a ocorrência destas situações, deve remover o conteúdo quando tiver notificação extrajudicial.
Toffoli deixou claro que estas regras não se aplicam a:
▶️serviços de email (Gmail, Outlook, etc);
▶️aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc)
▶️aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc);
Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas respondem junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes.
Por fim, o magistrado estabeleceu uma série de requisitos para os provedores de internet devem:
▶️atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e redução dos danos;
▶️manter atualizados e dar publicidade aos “termos e condições de uso” (ou documento equivalente); também devem elaborar códigos de conduta;
▶️criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários, adotando as medidas necessárias para impedir a criação de perfis falsos e automatizando, agindo para bloqueá-los assim que forem identificados;
▶️estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos, assim como divulgar estas informações;
▶️atualizar constantemente critérios e métodos empregados para a moderação de conteúdos;
▶️combater a difusão de desinformação nos ambientes virtuais, adotando as providências necessárias para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa;
▶️monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência;
▶️devem ofertar canais específicos de notificação, preferencialmente eletrônicos, para o recebimento de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá apuração prioritária; estes canais devem permitir o acompanhamento das reclamações.
▶️devem atuar para previnir e reduzir práticas ilegais no seu âmbito de atuação;
▶️provedores de internet com sede no exterior e atuação no Brasil devem ter representante no país, cuja identificação e informações para contato devem ser divulgadas;
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil — estabelece princípios, garantias, direitos e deveres para usuários e empresas.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.
Adicionar aos favoritos o Link permanente.