Em manifestação no STF (Supremo Tribunal Federal) em novembro do ano passado, a Meta usou tom oposto ao agora empregado por Mark Zuckerberg, CEO da empresa, para abordar suas atividades de moderação.
Ao invés de falar em “censura” ou em acusar a ocorrência de uma alta quantidade de erros e restrições excessivas —como fez agora o CEO—, no curso de ação que pode resultar em maior responsabilização das redes sociais no Brasil, a Meta defendeu sua atuação proativa.
Com afirmações como a de que a “moderação de conteúdo realizada pela Meta é efetiva” e que a aplicação de suas políticas “engloba uma abordagem coerente e abrangente”, a empresa buscava rebater a ideia de que haveria inação por parte dela no combate a conteúdos nocivos.
Mark Zuckerberg, CEO da Meta, discursa na sede da companhia na Califórnia, nos EUA – Reuters
O tom é bastante distinto do de Zuckerberg. “Construímos um monte de sistemas complexos para moderar o conteúdo. Mas o problema com sistemas complexos é que eles erram”, disse ele no último dia 7, ao anunciar uma guinada na postura da empresa. “Chegamos a um ponto em que são apenas muitos erros e muita censura.”
Ele também anunciou que deixaria de usar filtros automatizados para violações de baixa gravidade: “O problema é que os filtros cometem erros e removem muito conteúdo que não deveriam”, disse o dono da empresa.
Já no documento protocolado no STF, apenas dois meses antes, a empresa destacava que sua atividade de moderação se dava com base na “detecção de violações baseadas em denúncias de usuários, tecnologia (com uso de inteligência artificial) e análise humana” e que “os resultados desses esforços são contundentes”.
Dizia ainda que isso “demonstra que, para situações objetivas e previstas nos termos de uso, as ferramentas existem e são efetivas no combate à veiculação de conteúdos nocivos. Salienta-se que 98,30% desses conteúdos foram removidos por ação proativa”.
A Meta foi questionada quanto a quais fatos provocaram a mudança de visão sobre a ação de moderação da própria empresa nesse curto intervalo. Também perguntou por que, nas manifestações anteriores, não era divulgada pela empresa a estimativa de erros de moderação.
A Meta respondeu que não iria comentar.
O Facebook —que faz parte da Meta, junto do Instagram, Threads e WhatsApp— é uma das partes da ação que começou a ser julgada no fim de 2024 no STF e que envolve o Marco Civil da Internet.
O seu artigo 19, ponto principal da discussão pela corte, diz que as redes só estão sujeitas a pagar indenização por um conteúdo postado por terceiro se, após uma decisão judicial ordenando a retirada, mantiverem o conteúdo no ar.
À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas era que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas.