sábado, 23 de março de 2019

Por que o Facebook não bloqueou a live do massacre na Nova Zelândia



O massacre que tirou a vida de 50 pessoas na Nova Zelândia, na semana passada, foi transmitido ao vivo pelo Facebook para milhares de pessoas. A rede social falhou em bloquear a exibição e, atualmente, ainda é possível encontrar o vídeo sendo compartilhado pela internet. A ação terrorista ficará gravada para sempre, visto que o Facebook não teve a capacidade de identificar a livestream e tirar do ar.

"Massacre na Nova Zelândia foi exibido ao vivo no Facebook e só caiu após 12 minutos do encerramento da transmissão"




De acordo com uma publicação de Guy Rosen, vice-presidente da equipe de produto no Facebook, o sistema de inteligência artificial da empresa não estava preparado para um evento como este. Para reconhecer algo assim como “não autorizado” dentro do sistema de livestream, a inteligência artificial precisa ser treinada para isso — ou seja, ela precisa “enxergar” centenas de imagens de ataques terroristas e outros tipos de massacres para aprender que isso não deve ser transmitido ao vivo.

Bem, provavelmente temos inúmeros vídeos e imagens de massacre na internet que o Facebook poderia ter utilizado para ensinar sua inteligência artificial, não é?

Rosen ainda escreveu: “Precisamos fornecer aos nossos sistemas grandes volumes de dados desse tipo específico de conteúdo, algo que é difícil, pois esses eventos são felizmente raros. A IA é uma parte extremamente importante da nossa luta contra o conteúdo terrorista em nossas plataformas, e enquanto a sua eficácia continua a melhorar, nunca será perfeita”.

Outro ponto que, segundo Rosen, impediu que o Facebook agisse rapidamente: o vídeo ao vivo do terrorista não teve denúncias de usuários da rede social enquanto era exibido. 

De acordo com o vice-presidente da empresa, a equipe responsável pelos vídeos prioriza a exclusão de vídeos que recebam denúncias.

"Antes de ser completamente tirado do ar, chegou a bater 4 mil visualizações — e hoje corre na internet"



O vídeo ao vivo, com cenas explícitas do terrorista atirando contra dezenas de pessoas em ataque xenófobo e racista, teve 200 visualizações no Facebook. Antes de ser completamente tirado do ar, chegou a bater 4 mil visualizações. A primeira denúncia de usuário foi realizada 12 minutos após o término da livestream. Durante as próximas 24 horas da exibição, o Facebook tirou do ar 1,2 milhão de vídeos — 80% deles foram identificados antes da carga completa na rede social, 300 mil removidos após o upload.

“No ano passado, mais do que dobramos o número de pessoas trabalhando em segurança para mais de 30 mil pessoas, incluindo cerca de 15 mil revisores de conteúdo. Por isso incentivamos as pessoas a denunciar conteúdo que considerem preocupante”, escreveu Rosen.


O Facebook aproveitou também para anunciar alguns passos que tomará daqui para frente. Veja abaixo:


  • Melhorar nossa tecnologia de correspondência para que possamos impedir a disseminação de vídeos virais dessa natureza, independentemente de como eles foram originalmente produzidos. Por exemplo, como parte de nossa resposta na última sexta-feira, aplicamos a tecnologia baseada em áudio experimental que desenvolvemos para identificar variantes do vídeo
  • Em segundo lugar, reagindo mais rapidamente a esse tipo de conteúdo em um vídeo transmitido ao vivo. Isso inclui explorar se e como a inteligência artificial pode ser usada para esses casos e como chegar aos relatórios do usuário mais rapidamente. Alguns perguntaram se devemos adicionar um atraso no Facebook Live, semelhante ao atraso de transmissão usado às vezes pelas emissoras de TV. Há milhões de transmissões ao vivo diariamente, o que significa que um atraso não ajudaria a resolver o problema devido ao grande número de vídeos. Mais importante, dada a importância dos relatórios de usuários, a adição de um atraso só retardaria ainda mais os vídeos sendo informados, revisados e os socorristas sendo alertados para fornecer ajuda no local.
  • Em terceiro lugar, continuando a combater o discurso de ódio de todos os tipos em nossa plataforma. Nossas normas comunitárias proíbem grupos terroristas e de ódio de todos os tipos. Isso inclui mais de 200 organizações de supremacia branca globalmente, cujo conteúdo estamos removendo por meio de tecnologia de detecção proativa.
  • Quarto, expandindo nossa colaboração no setor por meio do Fórum Global da Internet para o Combate ao Terrorismo (GIFCT). Estamos experimentando o compartilhamento de URLs sistematicamente, em vez de apenas hashes de conteúdo, estamos trabalhando para abordar a gama de terroristas e extremistas violentos que operam on-line e pretendemos refinar e melhorar nossa capacidade de colaborar em uma crise.
Fonte:  Facebook

Nenhum comentário:

Postar um comentário