STF define regime de responsabilidade para as plataformas digitais
Após 8 anos de tramitação no Supremo Tribunal Federal, foram julgados os processos sobre responsabilização das plataformas digitais e o alcance do artigo 19 do Marco Civil da Internet. Por ampla maioria (8 votos a 3), a decisão reconheceu a constitucionalidade do regime de responsabilização que exige prévia decisão judicial, mas também reconheceu o poder que as plataformas possuem na modulação de discursos e a necessidade de um regime de responsabilidade que leve isso em consideração.
De fato, o maior acerto da decisão foi escapar da armadilha que colocava a liberdade de expressão individual no centro do debate sobre responsabilização das redes, desviando a atenção dos verdadeiros problemas, quais sejam, dos aspectos sistêmicos e estruturais das plataformas na conformação e ressonância de alguns discursos. Afinal, as plataformas não são formadas por uma miríade equânime de conteúdos individuais, mas por dinâmicas que incentivam, ampliam a estimulam determinados conteúdos.
Por isso, o cerne da questão não era tratar, ao menos não apenas, sobre o momento e as hipóteses em que as plataformas seriam responsáveis por publicações individuais nas redes (responsabilidade por conteúdo de terceiros), mas sobre a responsabilidade das redes pela disseminação massiva de conteúdos criminosos, seja através de impulsionamento pago, do uso de robôs ou replicação de postagens. É com a visão do todo, e não do individual, que se pode perceber a influência que as plataformas podem ter na formação de discursos.
A decisão – que foi adotada em sede de repercussão geral e será aplicada por todo Judiciário – determina uma presunção de responsabilidade das plataformas quando “a disseminação de conteúdos ilícitos se dá por anúncios e impulsionamentos pagos; ou por rede artificial de distribuição (chatbot ou robôs)”, ou seja, impõe às empresas o dever de comprovar que adotaram medidas concretas e efetivas para tornar o conteúdo ilícito indisponível. Caso não comprovem isso, serão responsabilizadas.
Além disso, a decisão estabelece que conteúdos já considerados ilícitos por prévia decisão judicial, caso sejam republicados em outros perfis, deverão ser removidos pelas plataformas, independentemente de nova decisão judicial. Este ponto em particular dialoga com decisão adotada pelo Tribunal Superior Eleitoral nas Eleições de 2022, determinando que o reconhecimento da ilicitude de uma postagem por decisão judicial desobrigaria nova decisão judicial na hipótese de replicação do mesmo conteúdo.
Aliás, os desafios enfrentados pelo Tribunal Superior Eleitoral e pelo próprio Supremo Tribunal Federal, no âmbito eleitoral e de ataques à democracia nos últimos anos, influenciaram a decisão sobre responsabilização das plataformas não só nesse ponto de replicação de mensagens. Reconheceu o dever de provedores estrangeiros, que atuam no Brasil, manterem representantes legais no país para cumprimento de eventuais decisões judiciais. Esse foi um dos embates, no âmbito eleitoral e de atos antidemocráticos, entre TSE, STF e empresas estrangeiras.
O tribunal também decidiu que cabe às plataformas agir para tornar indisponíveis, independentemente de decisão judicial, conteúdos que configuram os seguintes crimes graves: abolição violenta do estado democrático de direito; golpe de estado; interrupção de processo eleitoral; violência política; sabotagem; terrorismo ou preparatórios de terrorismo. Com isso, o Supremo reconhece que formação de discursos e a mobilização das redes através das plataformas pode fazer parte de esquemas criminosos complexos que minam a democracia. A experiência concreta brasileira mostra que, de fato, isso pode ocorrer.
Da mesma forma, o Supremo considerou que as plataformas têm o dever de remover conteúdos que se refiram a crimes de: induzimento, instigação ou auxílio a suicídio ou a automutilação; incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas); crimes praticados contra a mulher em razão da condição do sexo feminino; crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes; tráfico de pessoas. Aqui, mais uma vez, o tribunal abre os olhos para uma triste realidade, na qual discursos de ódio e discriminação encontram nas redes amparo e ressonância.
Nesses casos desses conteúdos criminosos, o Supremo considera as plataformas têm um dever de cuidado, ou seja, um dever de sequer permitir a sua publicação, devendo comprovar que adotou medidas adequadas e eficazes de sua remoção.
Com essa decisão, fica definido um regime de responsabilidade que olha para as plataformas como elas são e para o poder que detêm. Por isso mesmo, implementar essa decisão será um enorme desafio.
Eloísa Machado é coordenadora do projeto Supremo em Pauta, da Fundação Getúlio Vargas (FGV)
Os artigos publicados nesta seção não refletem, necessariamente, a opinião do PlatôBR.