O Facebook iniciou
o período de testes de novas ferramentas e políticas de moderação de conteúdo
na rede social. De acordo com a Wired,
o objetivo agora é entender exatamente o contexto de cada postagem para saber
se ela é de fato ofensiva e faz sentido em relação a um determinado assunto.
Tudo isso está em desenvolvimento
dentro do próprio Facebook e deve corrigir uma das maiores falhas do site: não
deletar várias publicações ou aceitar algumas denúncias por não identificar que
a frase era ofensiva ou discriminatória. O contrário também vale: evitar falsos
positivos e o banimento de contas que estão dentro das regras.
Antes, os moderadores tinham que
tomar uma decisão sobre remover a postagem ou não e, em seguida, responder a
uma série de perguntas justificando a decisão. Agora, isso será revertido:
primeiro vêm as perguntas, depois a decisão.
Segundo o Facebook, isso aumentou a
precisão da moderação, que ainda terá novos materiais de treinamento e até
cursos de especialização sobre discurso de ódio. Vale lembrar que o Facebook
recentemente foi criticado pela baixa verificação dos anúncios e
também por más condições dos locais de
trabalho dos moderadores, que entram em contato com
conteúdos pesados ao longo do dia e recebiam baixos pagamentos
por isso.
Fontes: Wired/Paris Martineau
Nenhum comentário:
Postar um comentário