Na última
sexta-feira (22), o YouTube desativou
os comentários de dezenas de milhões de vídeos em resposta à denúncia feita
pelo youtuber Matt Watson, que revelou a existência de um “circuito de
pedofilia” na plataforma de vídeos em que usuários utilizavam contas falsas
para fazer comentários maliciosos em vídeos supostamente inocentes de crianças,
apontando os momentos do vídeo em que elas apareciam em uma posição que poderia
ser sexualizada — além de compartilharem links para outros locais de conteúdo
pedófilo.
Apesar
desse “circuito” já estar ocorrendo há algum tempo na plataforma, o YouTube só
começou a tomar medidas reais para coibi-lo na semana passada, quando a
revelação feita por Watson viralizou e diversas grandes marcas — como Nestlé
e Disney —
anunciaram que parariam imediatamente de anunciar na plataforma por suas marcas
estarem sendo indiretamente ligadas à prática da pedofilia.
O caso do
“circuito”
A atual polêmica foi revelada em um
vídeo publicado há uma semana por Matt Watson. Na publicação, ele não apenas
revela a existência de um “circuito de pedofilia” que atua nos comentários do
YouTube, mas ainda como o próprio algoritmo da plataforma de vídeos facilita
que esses conteúdos sejam encontrados por qualquer pessoa em apenas cinco ou
seis cliques ao pesquisar por temas comuns, como “ginástica” ou “vídeos de
biquíni”.
Apesar do vídeo ter sido postado na última segunda-feira (18),
foi apenas na quarta (20) que o conteúdo viralizou, fazendo com que
imediatamente diversas empresas — como a Epic Games, criadora do jogo Fortnite e uma das primeiras a se pronunciar sobre o assunto —
retirassem seus investimentos em publicidade veiculadas no YouTube.
Desde que a onda de corte de anúncios
começou, em apenas 48h o YouTube já removeu milhares de comentários que
sexualizavam crianças, centenas de contas falsas que faziam esses comentários e
dezenas de vídeos que, ainda que sem malícia, colocavam crianças em situações
de possível sexualização — além de enviar todas as informações que possuía
sobre essas contas de comentários pedófilos para as autoridades policiais
competentes.
Infelizmente, essa não é a primeira
vez que algo do tipo acontece com a plataforma e mostra o histórico preocupante
de uma empresa que se preocupa menos em impedir que esse tipo de coisa aconteça
e mais em mostrar serviço quando elas finalmente vêm a público.
Elsagate
Já há pelo menos quatro anos o
YouTube tem sido um lugar problemático para as crianças, mas tudo começou a
sair do controle quando, em 2016, um canal chamado Webs and
Tiaras viralizou com vídeos em que adultos vestidos de
personagens infantis famosos, como super-heróis e princesas da Disney, faziam
performances bizarras e que não deveriam ser vistas por crianças, como cortar a
língua, engolir uma cobra ou arrancar as tripas de um outro personagem.
Esse conteúdo normalmente era
identificado por uma thumbnail em que os personagens apareciam sobre um fundo
colorido em poses sem sentido e, mesmo que definitivamente o conteúdo dos
vídeos não fosse algo seguro para crianças, eles faziam um enorme sucesso entre
os pequenos. Em apenas dois meses, o canal se tornou um dos maiores sucessos do
YouTube, acumulando 1,7 bilhões de visualizações e alguns milhões de inscritos.
O sucesso fez com que surgissem diversos canais que imitavam esse tipo de
vídeo, com alguns produzindo conteúdos ainda mais extremos, com o consumo de
drogas e insinuações de fetiches sexuais.
Essa proliferação de canais que
utilizavam ícones infantis para promover conteúdos adultos acabou ficando
conhecida pelo nome de Elsagate (alusão
à princesa Elsa da animação Frozen,
lançada pela Disney em 2013).
Ainda que esses vídeos, de modo mais ou menos
pesado, existissem no YouTube desde 2014, foi apenas em 2017 — em meio a um
outro escândalo que ficou conhecido como Adpocalypse (ainda
entraremos em maiores detalhes sobre ele) — que a empresa mudou suas regras de
uso para impedir que esses tipos de vídeos fossem monetizados. Isso significa
que, pelo menos durante três anos, esses conteúdos não só faziam sucesso
abusando da imagem de ícones infantis como ainda eram extremamente lucrativos,
pois eram considerados como conteúdos “para toda a família” pela plataforma de
vídeos e seus criadores ganhavam pelos anúncios que eram divulgados neles.
YouTube “Kids”
Em fevereiro de 2015, o YouTube
anunciou a criação do YouTube Kids, um novo app desenvolvido com algoritmos que
garantiriam que todo o conteúdo mostrado fosse seguro para crianças. Durante o
anúncio, a empresa revelou que o app foi desenvolvido pensando nos pais que,
por motivos de trabalho ou pessoais, não conseguem estar sempre monitorando o
que os seus filhos acessam na internet, então o YouTube Kids seria um modo de
deixá-los despreocupados sobre quais conteúdos seus filhos teriam acesso mesmo
sem supervisão.
Mas, ao contrário do que divulgava o
marketing do produto, o app não era assim tão seguro para crianças. Menos de
dois meses depois de colocar o aplicativo no ar, uma coalisão de grupos de
proteção à criança e de direitos do consumidor entrou com uma ação na Federal
Trade Comission (FCC) sobre os conteúdos que o YouTube Kids permitia as
crianças terem acesso. Isso ocorreu porque o algoritmo não considerava como
perigosos conteúdos de canais anteriores ao Webs and
Tiaras, mas que criavam o mesmo tipo de conteúdo, o que
permitia que crianças tivessem acesso não-moderado a vídeos grotescos com
adultos vestidos de princesas e super-heróis.
Além disso, a coalisão alegava ter
encontrado outros conteúdos até mais complicados do que os do canal, como
vídeos de animação onde personagens da Disney praticavam atos sexuais explícitos, insinuações sobre pedofilia e uso de
drogas e “desafios” que pediam para a criança fazer atos perigosos, como
brincar com fósforos acesos.
Ainda que à época o YouTube tenha
dito que havia desenvolvido o app com a ajuda de advogados ligados à proteção
de crianças e que estava sempre disposto a receber sugestões de melhorias,
pouco foi feito para coibir esse tipo de conteúdo danoso baseado em ícones
infantis.
E, mesmo três anos depois, o app
ainda continuava problemático. Uma investigação feita pela BBC em
fevereiro de 2018 descobriu que esses tipos de conteúdos ainda são extremamente
populares no YouTube Kids. Entre os vídeos que era possível acessar pelo app,
podia-se encontrar um em que o Mickey Mouse usava uma arma para matar crianças,
um em que personagens da Patrulha Canina gritavam palavrões enquanto caíam de
um avião em chamas, e até mesmo vídeos tutoriais que ensinavam afiar uma faca e
manusear uma arma de fogo.
Os algoritmos do YouTube realmente
não parecem saber muito bem fazer seu trabalho de proteger o público infantil,
e pudemos conferir isso em primeira mão: depois de passar algumas horas durante
uma tarde pesquisando relacionamentos entre o YouTube e pedofilia para a
criação desta matéria, ao acessar o app da plataforma no celular a primeira
coisa que ela me indica é se eu não gostaria de testar o YouTube Kids. Quando
um algoritmo pega sua busca pelo termo “pedofilia” e acha que está te ajudando
ao oferecer a entrada em um local que, teoricamente, deveria ser seguro para
crianças, é porque há algo muito errado na raiz disso.
Adpocalypse
Apesar de
todos esses problemas já terem sido indicados desde 2015, poucas mudanças foram
feitas na plataforma de vídeos até 2017 — ano em que, pela primeira vez, as
críticas ao modelo de negócios do YouTube tomaram uma proporção tão grande que
acabou afetando a empresa financeiramente.
Foi
naquele ano que ocorreu o fenômeno que ficou conhecido como Adpocalypse entre
os criadores de conteúdo da plataforma, quando a “liberdade” dada pelo YouTube
a seus criadores acabou estourando de forma negativa na imprensa.
Não se
sabe exatamente o que foi o ponto de partida do fenômeno, mas as causas são
atribuídas a três vídeos que geraram uma enorme quantidade de críticas e
comoção negativa na imprensa e público em geral:
· Um video
do YouTuber PewDiePie em que ele faz uma “piada” saudando o Partido Nazista;
· Uma montagem feita a partir de um clipe do rapper Chief Keef em que ele e outros
negros dançam ao som de Alabama N*gger, uma canção extremamente racista de
Johnny Rebel, que manda a Associação Nacional para o Progresso da Pessoas de
Cor se f*der e fala que os negros querem entrar nos lugares de brancos porque a
planta do pé deles é branca;
· Um
comercial da Pepsi em que a modelo Kendall Jenner aparece acabando com um conflito
entre policiais e ativistas ao oferecer uma Pepsi para a polícia, que foi
duramente criticado por minimizar a questão da brutalidade policial que atinge
principalmente as pessoas negras.
A atenção
que esses vídeos criaram na mídia fez com que a imprensa passasse a mostrar
então outros vídeos ainda mais problemáticos existentes no YouTube, em que
vloggers falavam abertamente sobre a aplicação de políticas de extermínio
étnico e a perseguição e morte de minorias negras, homossexuais e latinas,
entre outras. As reportagens não apenas revelaram que esses conteúdos existiam,
mas também que eles eram monetizados — o que fazia com que marcas como a
Coca-Cola, por exemplo, pudessem ser ligadas diretamente a um vídeo que
advogava o extermínio da população negra sem nem mesmo ficar sabendo disso.
Essa comoção toda com o assunto
acabou gerando o evento conhecido como Adpocalypse,
quando diversas empresas deixaram de investir no YouTube, o que fez com que os
criadores de conteúdo da plataforma vissem suas receitas mensais com anúncios
despencarem.
Para tentar retomar a confiança, o
YouTube mudou sua política de monetização e pela primeira vez passou a permitir
não apenas que as empresas escolhessem em quais tipos de vídeos gostariam de
divulgar suas propagandas, mas também que apenas os usuários que produzissem
conteúdo não abusivo teriam permissão de monetizar os seus canais.
Então, ainda que a empresa tenha sido
alertada há pelo menos dois anos antes sobre a existência de canais que
enganavam os algoritmos e transmitiam conteúdos abusivos para crianças a fim de
lucrar com a exibição de anúncios, foi apenas em 2017, quando a “bomba”
estourou, que ela tomou a primeira providência para dificultar a existência
desses canais ao impedi-los de serem monetizados.
O estado atual do YouTube
Em todos os casos aqui citados, o
posicionamento do YouTube foi sempre o mesmo: garantir que esses conteúdos vão
contra suas diretrizes de uso, afirmar que possui um enorme time de moderadores
que está sempre procurando manter a plataforma segura para todos os públicos e
não fazendo nada realmente efetivo até o momento em que os anunciantes começam
a abandonar o barco.
Ao longo de sua história, essa tem
sido a abordagem em todos os assuntos envolvendo polêmicas que têm o conteúdo
dos vídeos postado no YouTube. Quando o problema envolve apenas a empresa —
como um caso de 2017, em que usuários enganaram os algoritmos do Youtube para
que, ao digitar “how to have” (como fazer, em português) na barra de busca, as
duas primeiras opções de autocompletar fossem “how to have s*x with your kids”
(como fazer sexo com seus filhos) e “how to have s*x kids” (como fazer sexo com
crianças) — o problema é rapidamente solucionado. Mas, quando ele envolve os
conteúdos dentro dos vídeos, a empresa costuma “levar com a barriga” até se
sentir compelida a intervir pelo “clamor público” — que é melhor demonstrado na
saída de anunciantes.
Ainda que existam diversos desafios
para se fazer um conteúdo realmente moderado em uma plataforma onde são feitos
o upload de cerca de 300h de vídeos a cada minuto, o posicionamento do YouTube
historicamente se mostra extremamente passivo até mesmo quando os problemas são
denunciados e a empresa não pode alegar desconhecimento.
E mesmo que
ultimamente a empresa tenha se empenhado em deletar canais e remover usuários nocivos, a
descoberta de um "circuito de pedofilia" na plataforma mostra que
ainda há muito a melhorar neste quesito.
Além disso, o problema atual do
“circuito” ainda mostra falhas sérias no sistema de denúncias da plataforma.
Ainda que existam ferramentas de denúncia fáceis de acessar tanto para vídeos
quanto para comentários, essas denúncias normalmente só são levadas a sério
pelos moderadores quando o mesmo conteúdo é denunciado uma centena de vezes.
Como esses “circuitos” eram acessados majoritariamente por pedófilos e em
apenas alguns casos eram encontrados por usuários comuns, as denúncias sobre os
comentários que haviam ali eram raras e esparsas, o que acabava soterrando na
enorme fila de denúncias que os moderadores precisam lidar diariamente.
Mas mesmo que reconheçamos as
dificuldades, precisamos ser duros com o YouTube. Afinal, não foram dois ou
três comentários em um vídeo com poucas visualizações, mas milhares de
comentários espalhados em uma centena de vídeos, e o fato que nenhum moderador
ou algoritmo conseguiu identificar a criação dessa “rede” de pedofilia dentro
do site mostra que existem sérios problemas nos mecanismos de segurança da
plataforma e que precisam ser resolvidos de maneira decisiva e urgente — e não
apenas quando a próxima grande empresa confirmar que irá parar de anunciar no
site.
Por mais que o YouTube, desde sua
criação, tenha se esforçado para criar uma separação entre a “empresa YouTube”
e os usuários que criam conteúdo e postam na plataforma, a empresa ainda tem um
grande grau de responsabilidade por tudo o que é publicado ali. E, como a
principal plataforma de vídeos do mundo, pertencente ao maior conglomerado de
internet do mundo, não faltam recursos financeiros e nem técnicos para garantir
uma maior proteção a todos aqueles que acessam o site, independentemente da
idade.
Fontes: AMB Crypto, Polygon, New York Magazine, Wikipedia, Wikitubia
Nenhum comentário:
Postar um comentário