Facebook não bloqueou a live do massacre na Nova Zelândia

O massacre que tirou a vida de 50 pessoas na Nova Zelândia, na semana passada, foi transmitido ao vivo pelo Facebook para milhares de pessoas.

A rede social falhou em bloquear a exibição e, atualmente, ainda é possível encontrar o vídeo sendo compartilhado pela internet. A ação terrorista ficará gravada para sempre, visto que o Facebook não teve a capacidade de identificar a livestream e tirar do ar.

De acordo com uma publicação de Guy Rosen, vice-presidente da equipe de produto no Facebook, o sistema de inteligência artificial da empresa não estava preparado para um evento como este.

Para reconhecer algo assim como “não autorizado” dentro do sistema de livestream, a inteligência artificial precisa ser treinada para isso — ou seja, ela precisa “enxergar” centenas de imagens de ataques terroristas e outros tipos de massacres para aprender que isso não deve ser transmitido ao vivo.

Bem, provavelmente temos inúmeros vídeos e imagens de massacre na internet que o Facebook poderia ter utilizado para ensinar sua inteligência artificial, não é?

Rosen ainda escreveu: “Precisamos fornecer aos nossos sistemas grandes volumes de dados desse tipo específico de conteúdo, algo que é difícil, pois esses eventos são felizmente raros.

A IA é uma parte extremamente importante da nossa luta contra o conteúdo terrorista em nossas plataformas, e enquanto a sua eficácia continua a melhorar, nunca será perfeita”.

Outro ponto que, segundo Rosen, impediu que o Facebook agisse rapidamente: o vídeo ao vivo do terrorista não teve denúncias de usuários da rede social enquanto era exibido. De acordo com o vice-presidente da empresa, a equipe responsável pelos vídeos prioriza a exclusão de vídeos que recebam denúncias.

Antes de ser completamente tirado do ar, chegou a bater 4 mil visualizações — e hoje corre na internet

O vídeo ao vivo, com cenas explícitas do terrorista atirando contra dezenas de pessoas em ataque xenófobo e racista, teve 200 visualizações no Facebook. Antes de ser completamente tirado do ar, chegou a bater 4 mil visualizações. A primeira denúncia de usuário foi realizada 12 minutos após o término da livestream.

Durante as próximas 24 horas da exibição, o Facebook tirou do ar 1,2 milhão de vídeos — 80% deles foram identificados antes da carga completa na rede social, 300 mil removidos após o upload.

“No ano passado, mais do que dobramos o número de pessoas trabalhando em segurança para mais de 30 mil pessoas, incluindo cerca de 15 mil revisores de conteúdo. Por isso incentivamos as pessoas a denunciar conteúdo que considerem preocupante”, escreveu Rosen.

Fonte: Tecmundo

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.