Nas primeiras 24 horas após o tiroteio em massa mortal na Nova Zelândia, o Facebook diz que removeu 1,5 milhões de vídeos que foram carregados do ataque, dos quais 1,2 milhões “no upload”.

A empresa fez o anúncio em um tweet, acompanhando um anúncio anterior de que havia sido alertado pelas autoridades e retirado as contas do Facebook e Instagram do suposto atirador. A porta-voz do Facebook, Mia Garlick, diz que a empresa também está “removendo todas as versões editadas do vídeo que não mostram conteúdo gráfico”.

O ataque terrorista parece ter sido projetado para se tornar viral, com o suposto atirador liberando um manifesto que fez referência a vários indivíduos como o YouTuber Felix Kjellberg, Candace Owens, Donald Trump, e bem como teorias de conspiração da supremacia branca.

Ele também postou um vídeo de 17 minutos no Facebook, Instagram, Twitter e YouTube, o que levou a mensagem a se tornar ainda mais viral, mesmo que todas essas empresas tenham trabalhado para evitar sua disseminação.

Mas a remoção do Facebook de mais de um milhão de cópias (e versões editadas) do vídeo demonstra o enorme desafio que ele tem em moderar o site. Em seu impulso para o crescimento rápido, seus esforços para ampliar sua capacidade de monitorar e remover conteúdo ofensivo, ilegal ou perturbador foram deixados de lado e permitem que os suspeitos usem a plataforma para divulgar sua mensagem rapidamente.

Houve outros exemplos de alto perfil onde assassinatos ou ataques terroristas foram transmitidos na plataforma. De fato, como o Facebook tem trabalhado para resolver o problema, ele usou empresas terçeiras, alguns dos quais foram radicalizados e traumatizados pelo próprio ato de derrubar tal conteúdo.

Fonte: The Verge

Anúncios

Leandro Ferreira | Connection Japan ®

Webmaster, programador, desenvolvedor e editor de artigos.

Deixe um comentário:

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.