O massacre que
tirou a vida de 50 pessoas na Nova Zelândia, na semana passada, foi transmitido
ao vivo pelo Facebook para milhares de pessoas. A
rede social falhou em bloquear a exibição e, atualmente, ainda é possível
encontrar o vídeo sendo compartilhado pela internet. A ação terrorista ficará
gravada para sempre, visto que o Facebook não teve a capacidade de identificar
a livestream e tirar do ar.
"Massacre na Nova Zelândia foi
exibido ao vivo no Facebook e só caiu após 12 minutos do encerramento da
transmissão"
De acordo com uma publicação de Guy Rosen, vice-presidente
da equipe de produto no Facebook, o sistema de inteligência artificial da
empresa não estava preparado para um evento como este. Para reconhecer algo
assim como “não autorizado” dentro do sistema de livestream, a inteligência
artificial precisa ser treinada para isso — ou seja, ela precisa “enxergar”
centenas de imagens de ataques terroristas e outros tipos de massacres para
aprender que isso não deve ser transmitido ao vivo.
Bem, provavelmente temos inúmeros vídeos e imagens de massacre
na internet que o Facebook poderia ter utilizado para ensinar sua inteligência
artificial, não é?
Rosen ainda escreveu:
“Precisamos fornecer aos nossos sistemas grandes volumes de dados desse tipo
específico de conteúdo, algo que é difícil, pois esses eventos são felizmente
raros. A IA é uma parte extremamente importante da nossa luta contra o conteúdo
terrorista em nossas plataformas, e enquanto a sua eficácia continua a
melhorar, nunca será perfeita”.
Outro ponto que, segundo Rosen,
impediu que o Facebook agisse rapidamente: o vídeo ao vivo do terrorista não
teve denúncias de usuários da rede social enquanto era exibido.
De acordo com o
vice-presidente da empresa, a equipe responsável pelos vídeos prioriza a
exclusão de vídeos que recebam denúncias.
"Antes
de ser completamente tirado do ar, chegou a bater 4 mil visualizações — e hoje
corre na internet"
O vídeo ao vivo, com cenas
explícitas do terrorista atirando contra dezenas de pessoas em ataque xenófobo
e racista, teve 200 visualizações no Facebook. Antes de ser completamente
tirado do ar, chegou a bater 4 mil visualizações. A primeira denúncia de
usuário foi realizada 12 minutos após o término da livestream. Durante as
próximas 24 horas da exibição, o Facebook tirou do ar 1,2 milhão de vídeos —
80% deles foram identificados antes da carga completa na rede social, 300 mil
removidos após o upload.
“No ano passado, mais do que
dobramos o número de pessoas trabalhando em segurança para mais de 30 mil
pessoas, incluindo cerca de 15 mil revisores de conteúdo. Por isso incentivamos
as pessoas a denunciar conteúdo que considerem preocupante”, escreveu Rosen.
O Facebook aproveitou também para
anunciar alguns passos que tomará daqui para frente. Veja abaixo:
- Melhorar nossa tecnologia de correspondência para que possamos impedir a disseminação de vídeos virais dessa natureza, independentemente de como eles foram originalmente produzidos. Por exemplo, como parte de nossa resposta na última sexta-feira, aplicamos a tecnologia baseada em áudio experimental que desenvolvemos para identificar variantes do vídeo
- Em segundo lugar, reagindo mais rapidamente a esse tipo de conteúdo em um vídeo transmitido ao vivo. Isso inclui explorar se e como a inteligência artificial pode ser usada para esses casos e como chegar aos relatórios do usuário mais rapidamente. Alguns perguntaram se devemos adicionar um atraso no Facebook Live, semelhante ao atraso de transmissão usado às vezes pelas emissoras de TV. Há milhões de transmissões ao vivo diariamente, o que significa que um atraso não ajudaria a resolver o problema devido ao grande número de vídeos. Mais importante, dada a importância dos relatórios de usuários, a adição de um atraso só retardaria ainda mais os vídeos sendo informados, revisados e os socorristas sendo alertados para fornecer ajuda no local.
- Em terceiro lugar, continuando a combater o discurso de ódio de todos os tipos em nossa plataforma. Nossas normas comunitárias proíbem grupos terroristas e de ódio de todos os tipos. Isso inclui mais de 200 organizações de supremacia branca globalmente, cujo conteúdo estamos removendo por meio de tecnologia de detecção proativa.
- Quarto,
expandindo nossa colaboração no setor por meio do Fórum Global da Internet
para o Combate ao Terrorismo (GIFCT). Estamos experimentando o
compartilhamento de URLs sistematicamente, em vez de apenas hashes de
conteúdo, estamos trabalhando para abordar a gama de terroristas e
extremistas violentos que operam on-line e pretendemos refinar e melhorar
nossa capacidade de colaborar em uma crise.
Fonte: Facebook
Nenhum comentário:
Postar um comentário