Meta, a empresa por trás de Facebook, Instagram e Threads, anunciou uma mudança forte em sua estratégia de moderação de conteúdo. De acordo com Joel Kaplan, novo chefe de políticas da empresa, as plataformas irão abandonar o uso de verificadores de fatos terceirizados em favor de um programa chamado "Community Notes", inspirado no recurso de mesmo nome do X.
A mudança busca empoderar a comunidade para decidir quando uma publicação pode ser enganosa, adicionando contexto conforme necessário. Segundo a meta, o objetivo é reduzir o viés percebido nas revisões de conteúdo e melhorar a experiência dos usuários.
Confira o anúncio feito por Zuckerberg:
A mudança também faz parte de um esforço maior para abordar críticas de que a Meta censura muito conteúdo inofensivo e demora a responder a restrições de contas. Além disso, a Meta está eliminando várias restrições atuais sobre temas como imigração e identidade de gênero. A empresa também planeja reintroduzir conteúdo político no feed dos usuários de forma mais personalizada.
Os sistemas automatizados de moderação vão continuar em uso, eles se concentrarão em violações mais graves das políticas, como terrorismo, exploração sexual infantil, drogas, fraudes e golpes.
Quando começa a funcionar?
Segundo a Meta, a função será lançada nos Estados Unidos nos próximos meses, com uma etiqueta discreta indicando informações adicionais disponíveis em uma publicação, substituindo os avisos de tela cheia que exigem ação do usuário. No Brasil ainda não há informações sobre o início das notas de comunidade.
Vale lembrar que no Brasil a meta faz parte de um acordo firmado entre várias grandes empresas e o STF em apoio ao combate de Fake News, como que a empresa vai continuar após essa mudança ainda é incerto.
Fonte: The Verge
😕 Poxa, o que podemos melhorar?
😃 Boa, seu feedback foi enviado!
✋ Você já nos enviou um feedback para este texto.