YouTube sofre críticas por recomendar vídeos para crianças com comentários impróprios

Mais de um ano depois de um escândalo de moderação de conteúdo sobre segurança infantil no YouTube, a empresa ainda sofre com recomendações inapropriadas em vídeos para o público infantil.

Um criador do YouTube chamado Matt Watson sinalizou a questão em um post crítico do Reddit, dizendo que encontrou dezenas de vídeos de crianças onde usuários do YouTube estão fazem comentários impróprios, denunciando a empresa por não ter evitado o que ele descreve como “pedofilia leve”.

Ele também postou um vídeo no YouTube demonstrando como o algoritmo de recomendação da plataforma leva os usuários ao que ele chama de “buraco de minhoca” de pedofilia, acusando a empresa de facilitar e monetizar a exploração sexual de crianças.

Conseguimos replicar com facilidade o comportamento do algoritmo do YouTube descrito por Watson em uma sessão de navegador particular que, após clicar em dois vídeos de mulheres adultas em biquínis, sugeriu que assistíssemos a um vídeo chamado “sweet sixteen pool party”.

Ao clicar no que levou a barra lateral do YouTube para servir vários vídeos de meninas pré-adolescentes na sua seção “up next”, onde o algoritmo tees-up conteúdo relacionado para incentivar os usuários a continuar clicando.

Os vídeos que recebemos recomendados nesta barra lateral incluíam miniaturas mostrando moças demonstrando poses de ginástica, mostrando suas “rotinas matinais” ou lambendo picolés ou itens diversos.

Watson disse que foi fácil para ele encontrar vídeos contendo comentários impróprios / predatórios, incluindo emoji sexualmente sugestivo e timestamps que parecem ter como objetivo destacar, atalhos e compartilhar as posições mais comprometedoras e / ou momentos nos vídeos dos menores.

Também encontramos vários exemplos de carimbos de data e hora e comentários inadequados em vídeos de crianças que o algoritmo do YouTube recomendou que assistamos.

Alguns comentários de outros usuários do YouTube denunciaram pessoas fazendo comentários sexualmente sugestivos sobre as crianças nos vídeos.

Em novembro de 2017, vários grandes anunciantes congelaram os gastos na plataforma do YouTube após uma investigação da BBC e o Times descobriu comentários obscenos em vídeos de crianças.

No mesmo mês, o YouTube também foi criticado por conteúdo de baixa qualidade que segmenta crianças como espectadores em sua plataforma.

A empresa anunciou uma série de mudanças nas políticas relacionadas a vídeos voltados para crianças, inclusive dizendo que policiaria agressivamente comentários sobre vídeos de crianças e que vídeos com comentários inapropriados sobre as crianças teriam comentários completamente cancelados.
Perguntamos ao YouTube por que seus algoritmos distorcem a recomendação de vídeos de menores, mesmo quando o espectador começa assistindo vídeos de mulheres adultas, e por que comentários impróprios continuam sendo um problema em vídeos de menores mais de um ano após o mesmo assunto ser destacado pelo jornalismo investigativo.

A empresa nos enviou a seguinte declaração em resposta às nossas perguntas:

“Qualquer conteúdo – incluindo comentários – que coloquem em perigo menores de idade é abominável e temos políticas claras que proíbem isso no YouTube. Nós reforçamos essas políticas agressivamente, reportando-as às autoridades relevantes, removendo-as de nossa plataforma e encerrando contas. Continuamos a investir pesadamente em tecnologia, equipes e parcerias com instituições de caridade para resolver esse problema. Temos políticas rigorosas que regem onde permitimos a exibição de anúncios e aplicamos vigorosamente essas políticas. Quando encontramos conteúdo que viola nossas políticas, paramos imediatamente de veicular anúncios ou removemos completamente o conteúdo”.

E apenas no mês passado o YouTube disse que reduziria as recomendações do que chamou de “conteúdo limítrofe” e conteúdo que “poderia desinformar os usuários de maneiras prejudiciais”, citando exemplos como vídeos promovendo uma falsa cura milagrosa para uma doença grave ou afirmando que a Terra é apartamento, ou fazendo “descaradamente falsas alegações” sobre eventos históricos, como o ataque terrorista do 11 de setembro em Nova York.

“Embora essa mudança se aplique a menos de um por cento do conteúdo do YouTube, acreditamos que limitar a recomendação desses tipos de vídeos significará uma melhor experiência para a comunidade do YouTube”, escreveu então. “Como sempre, as pessoas ainda podem acessar todos os vídeos que estão em conformidade com nossas Diretrizes da comunidade e, quando relevante, esses vídeos podem aparecer nas recomendações dos inscritos e nos resultados de pesquisa. Achamos que essa mudança estabelece um equilíbrio entre manter uma plataforma de liberdade de expressão e cumprir nossa responsabilidade com os usuários ”.

O YouTube disse que a mudança de recomendações algorítmicas em torno de vídeos de conspiração seria gradual e afetaria apenas inicialmente as recomendações de um pequeno conjunto de vídeos nos EUA.

Ele também observou que a implementação do ajuste em seu mecanismo de recomendação envolveria técnicos de aprendizado de máquina e avaliadores humanos e especialistas que ajudariam a treinar os sistemas de IA.

“Com o tempo, à medida que nossos sistemas se tornam mais precisos, nós implementamos essa alteração em mais países. É apenas mais um passo em um processo contínuo, mas reflete nosso compromisso e senso de responsabilidade para melhorar a experiência de recomendações no YouTube ”, acrescentou.

Resta saber se o YouTube expandirá essa mudança de política e decidirá que deve exercer maior responsabilidade em como sua plataforma recomenda e veicula vídeos de crianças para consumo remoto no futuro.

A pressão política pode ser uma força motivadora, com a construção de um impulso para a regulamentação das plataformas on-line – incluindo chamadas para que as empresas de Internet enfrentem responsabilidades legais claras e até mesmo um dever legal para com os usuários em relação ao conteúdo que distribuem e monetizam.

Por exemplo, os reguladores do Reino Unido fizeram da legislação sobre segurança na Internet e nas mídias sociais uma prioridade política – com o governo publicando um Livro Branco definindo seus planos para plataformas no inverno.

Fonte: TechCrunch

Leandro | レアンドロ・フェレイラ

Webmaster, programador, desenvolvedor e editor de artigos.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *