Meta, Google, X e TikTok se ausentaram da audiência pública realizada nesta quarta-feira (22), que discutiu as políticas de moderação de conteúdo nas plataformas digitais no Brasil. O evento foi organizado para debater as mudanças recentes anunciadas pela Meta e o impacto de tais decisões, além de ouvir especialistas e representantes da sociedade civil.
MUDANÇAS NAS POLÍTICAS DA META
A Meta, controladora do WhatsApp, Facebook e Instagram, anunciou o fim do programa de checagem de fatos conduzido por empresas especializadas, substituindo-o pelo sistema Notas da Comunidade. Nesse modelo, os próprios usuários adicionam contexto às postagens, em um formato semelhante ao adotado pela plataforma X (antigo Twitter).
Especialistas criticaram a mudança, alegando que ela pode intensificar o discurso de ódio contra comunidades vulneráveis, como LGBTQIA+, imigrantes e mulheres. Veridiana Alimonti, diretora de Política para América Latina da Fundação Fronteira Eletrônica, destacou que a ausência de checagem profissional agrava os riscos à segurança e à liberdade de expressão dessas populações.
PROPOSTAS PARA MELHORAR A MODERAÇÃO
Durante a audiência, o professor Ricardo Campos, da Universidade Goethe de Frankfurt, sugeriu medidas para fortalecer a moderação de conteúdos, incluindo:
- Portal de denúncias: Gerenciado por entidades como a Anatel, permitindo que comunidades e empresas credenciadas contribuam com a moderação.
- Auditoria de algoritmos: Para garantir transparência nos sistemas das plataformas.
- Acesso de pesquisadores: Em um modelo semelhante ao aplicado na Alemanha, onde acadêmicos têm acesso aos dados das redes sociais para análise.
IMPLICAÇÕES LEGAIS E LEGISLATIVAS
O ministro da Advocacia-Geral da União (AGU), Jorge Messias, informou que os resultados da audiência serão encaminhados ao Supremo Tribunal Federal (STF) e ao Congresso Nacional, onde tramitam projetos voltados à regulamentação das redes sociais.
Atualmente, o STF avalia o artigo 19 do Marco Civil da Internet, que trata da responsabilidade das plataformas por conteúdos ilícitos publicados por usuários. A AGU considera que as informações discutidas na audiência serão fundamentais para definir diretrizes mais claras e seguras para a moderação de conteúdo.
Apesar da ausência das empresas, a audiência reforçou a necessidade de regulamentação mais rígida para evitar que as mudanças nas políticas de moderação ampliem os problemas de desinformação e discurso de ódio no país.