English EN Portuguese PT Spanish ES

Posicionamento da Meta em ação do STF tem tom oposto ao de Zuckerberg

jurinews.com.br

Compartilhe

Em manifestação no STF (Supremo Tribunal Federal) em novembro do ano passado, a Meta usou tom oposto ao agora empregado por Mark Zuckerberg, CEO da empresa, para abordar suas atividades de moderação.

Ao invés de falar em “censura” ou em acusar a ocorrência de uma alta quantidade de erros e restrições excessivas —como fez agora o CEO—, no curso de ação que pode resultar em maior responsabilização das redes sociais no Brasil, a Meta defendeu sua atuação proativa.

Com afirmações como a de que a “moderação de conteúdo realizada pela Meta é efetiva” e que a aplicação de suas políticas “engloba uma abordagem coerente e abrangente”, a empresa buscava rebater a ideia de que haveria inação por parte dela no combate a conteúdos nocivos.

Mark Zuckerberg, CEO da Meta, discursa na sede da companhia na Califórnia, nos EUA – Reuters

O tom é bastante distinto do de Zuckerberg. “Construímos um monte de sistemas complexos para moderar o conteúdo. Mas o problema com sistemas complexos é que eles erram”, disse ele no último dia 7, ao anunciar uma guinada na postura da empresa. “Chegamos a um ponto em que são apenas muitos erros e muita censura.”

Ele também anunciou que deixaria de usar filtros automatizados para violações de baixa gravidade: “O problema é que os filtros cometem erros e removem muito conteúdo que não deveriam”, disse o dono da empresa.

Já no documento protocolado no STF, apenas dois meses antes, a empresa destacava que sua atividade de moderação se dava com base na “detecção de violações baseadas em denúncias de usuários, tecnologia (com uso de inteligência artificial) e análise humana” e que “os resultados desses esforços são contundentes”.

Dizia ainda que isso “demonstra que, para situações objetivas e previstas nos termos de uso, as ferramentas existem e são efetivas no combate à veiculação de conteúdos nocivos. Salienta-se que 98,30% desses conteúdos foram removidos por ação proativa”.

A Meta foi questionada quanto a quais fatos provocaram a mudança de visão sobre a ação de moderação da própria empresa nesse curto intervalo. Também perguntou por que, nas manifestações anteriores, não era divulgada pela empresa a estimativa de erros de moderação.

A Meta respondeu que não iria comentar.

O Facebook —que faz parte da Meta, junto do Instagram, Threads e WhatsApp— é uma das partes da ação que começou a ser julgada no fim de 2024 no STF e que envolve o Marco Civil da Internet.

O seu artigo 19, ponto principal da discussão pela corte, diz que as redes só estão sujeitas a pagar indenização por um conteúdo postado por terceiro se, após uma decisão judicial ordenando a retirada, mantiverem o conteúdo no ar.

À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas era que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas.

Deixe um comentário

TV JURINEWS

Apoio

Newsletters JuriNews

As principais notícias e o melhor do nosso conteúdo, direto no seu email.