Em busca
de acabar com as publicações envolvendo pornografia de vingança na plataforma,
o Facebook anunciou
o lançamento de uma ferramenta que utiliza inteligência
artificial para remover postagens que façam exposição
indesejada da intimidade de usuários. A ideia é que esse recurso possa detectar
imagens que contenham nudez, antes mesmo de algum usuário reportar a
publicação.
"Em uma
postagem em seu blog, o Facebook ainda afirmou que vai expandir esse piloto do
projeto durante os próximos meses para que mais pessoas possam se beneficiar"
Após
essa detecção, um moderador humano vai avaliar a publicação para definir se ela
viola os padrões de conduta do Facebook. Caso se trate realmente de pornografia
de vingança, a conta que fez a postagem deve ser deletada da plataforma. A
empresa afirmou que vai ser possível fazer uma apelação em caso de o usuário
considerar que sofreu alguma injustiça por uma avaliação equivocada.
Ajudando quem precisa
A nova
ferramenta – que também vai incluir recursos para que as vítimas busquem grupos
de ajuda e guias para quem deseja reportar casos não identificados pela
plataforma – vai ser implementada tanto no Facebook quanto no Instagram. A empresa também entrou em
contato com organizações sem fins lucrativos em diversos países, incluindo o
Brasil, com a SaferNet, para ajudar a criar recursos que
sejam relevantes de maneira local e cultural para as vítimas.
Em uma
postagem em seu blog, o Facebook ainda afirmou que vai expandir esse piloto do
projeto durante os próximos meses para que mais pessoas possam se beneficiar
dessa opção em uma emergência.
Fontes:
FACEBOOK /NEWSROOM
Nenhum comentário:
Postar um comentário