A juíza Fabelisa Gomes Leal, da 3ª Vara Cível da Regional de Campo
Grande (RJ), em uma decisão que rompe com o estabelecido pelo Marco Civil da
Internet, determinou, em caráter de tutela provisória, que as redes sociais X
(antigo Twitter), Facebook e TikTok realizem busca ativa, por meio de seus
algoritmos, para remover conteúdo que expõe uma pessoa menor de idade vítima de
crime violento. A decisão, que vai de encontro à legislação e jurisprudência
que geralmente exigem que a parte prejudicada indique explicitamente qual
conteúdo deve ser removido, reacende o debate sobre a necessidade de uma
regulamentação específica para a atuação das redes sociais no Brasil.
Contrariando a norma atual, as plataformas são geralmente isentas de responsabilidade pelos conteúdos postados por terceiros, a menos que haja descumprimento de decisão judicial para a remoção de publicações. Contudo, essa norma tem resultado em diversos casos de não cumprimento de sentenças por parte das redes sociais, inclusive em situações envolvendo estupro e pedofilia.
A ação, iniciada em 2022 e mantida em sigilo, detalha que várias denúncias foram feitas às empresas, as quais rejeitaram todos os pedidos de remoção do conteúdo. O TikTok, por exemplo, foi contatado através de seu canal dedicado a violações de segurança e crimes envolvendo menores, mas alegou que o conteúdo não violava as diretrizes da empresa.
A advogada da vítima, Gabriella Ventura, solicitou, por meio de tutela
de urgência, a remoção de 30 URLs contendo imagens da menor exposta. Além
disso, pediu que as plataformas fossem obrigadas a localizar ativamente
conteúdo semelhante ao indicado na petição e excluí-lo sem necessidade de nova
provocação.
Inicialmente, a juíza atendeu parcialmente à demanda, ordenando a
exclusão dos links. Diante da omissão em relação ao segundo ponto, a juíza
determinou a "localização ativa" pelas empresas controladoras das redes
sociais, utilizando seus próprios meios tecnológicos, para a remoção dos
conteúdos, sob pena de multa diária de R$ 500 em caso de descumprimento.
O Ministério Público posicionou-se a favor do pedido da vítima. A
decisão da juíza, emitida em 16 de novembro de 2023, inclui a retirada das
imagens veiculadas nas redes sociais que expõem indevidamente a menor,
relacionadas ao evento narrado na inicial, utilizando meios tecnológicos
disponíveis para promover a busca ativa desses conteúdos através dos mecanismos
de busca.
O TikTok recorreu da decisão, argumentando que o Marco Civil determina
que a remoção de conteúdo deve ser solicitada por decisão judicial específica,
com a apresentação do link do post a ser excluído. A desembargadora Marília de
Castro Neves Vieira, em 7 de dezembro, negou o pedido de efeito suspensivo e
manteve a decisão que determina a busca ativa. O recurso aguarda julgamento
colegiado em segunda instância, com a apresentação das contrarrazões. Ventura
ressalta a necessidade de uma interpretação da legislação que não privilegie as
grandes empresas de tecnologia em detrimento dos direitos dos cidadãos,
enfatizando a importância de refletir sobre o impacto social das redes sociais
e a urgência de proteger os direitos fundamentais no âmbito digital.
Fonte: Com informações do ConJur.