Alvo frequente de críticas por suas decisões de moderação, plataforma tenta responder a cinco questionamentos frequentes. YouTube publica página para explicar algumas de suas diretrizes de conteúdo. Dado Ruvic/Reuters ee , O YouTube lançou na última quinta-feira (22) uma página sobre desinformação e conteúdos impróprios na plataforma, para tentar defender a maneira como aplica suas políticas. O material, chamado "5 mitos e fatos", tem posicionamentos sobre questões como "o YouTube não consegue combater fake news pois não possui uma política sobre o tema". A novidade é extensão de um portal de transparência lançado em setembro pela companhia. A plataforma de vídeos é destino frequente de materiais compartilhados em grupos no WhatsApp, e uma fatia deles contém conteúdo falso ou que induz a erro, como apontou um levantamento do G1 no início deste ano. Na nova página, o YouTube diz que a desinformação é tratada "com diversas ferramentas", que envolvem remoção de vídeos, destaques de fontes confiáveis e redução de recomendações de conteúdo duvidoso e desinformação nociva. Saiba mais: Vídeos de YouTube com informações falsas somam milhões de visualizações e alimentam debate político no WhatsApp Ao fim de cada "mito", a página tem um link para um "saiba mais", que amplia a resposta e leva os leitores a mais links sobre suas políticas. No entanto, a seção dedicada a responder se "o YouTube não remove conteúdo inadequado" diz que a plataforma tem "políticas claras que determinam qual conteúdo é permitido", mas não apresentava um link que mostrasse essas diretrizes. Pouco depois da publicação desta matéria, a empresa atualizou o tópico sobre remoção de conteúdo, incluindo links para as suas políticas. Conteúdos 'duvidosos' O YouTube tem sido questionado nos últimos anos por supostamente dar espaço a vídeos com discurso de ódio, teorias da conspiração e por manter os usuários em "bolhas", reforçando as recomendações de vídeos similares. A plataforma já foi criticada por governos que disseram que ela não fazia o suficiente para remover conteúdo extremista, e por anunciantes, que boicotaram o serviço por um breve período, quando anúncios foram colocados ao lado de vídeos considerados inadequados pelas empresas. No ano passado, a empresa anunciou mudanças no sistema de recomendação de vídeos, pouco tempo depois de ter sido acusada de ser usada por pedófilos para ver vídeos de crianças em roupas de banho e de remover milhares de filmagens que violavam suas políticas de terrorismo. De acordo com a companhia, as alterações nos algoritmos de recomendação teriam reduzido o consumo de conteúdos "duvidosos" como curas milagrosas a doenças graves, afirmações de que a Terra é plana ou que façam alegações falsas sobre eventos históricos. Questionada por que o YouTube mantém vídeos como esses, a gerente de políticas públicas do YouTube, Juliana Nolasco, disse ao G1 que há "uma preocupação em permanecer como uma plataforma aberta". "Queremos continuar trazendo multiplicidade de vozes, mas ao mesmo tempo nos preocupamos com a segurança dos usuários", afirmou Nolasco. "Quando acreditamos que um conteúdo é duvidoso, reduzimos a recomendação. E não tomamos essa decisão sozinhos, fazemos com parceiros e parceiras [especialistas nos temas]", completou. Definindo as diretrizes Para definir um vídeo "limítrofe", que não fere as diretrizes da plataforma, mas tem o seu alcance reduzido, são levadas em consideração 9 ou mais opiniões diferentes, segundo o YouTube. A companhia não detalha como esses especialistas são escolhidos, e diz apenas que algumas áreas exigem "especialistas certificados", como em questões médicas. Não existe uma página que reúna as pessoas ou instituições que colaboraram nesses casos. O consenso definido pelos especialistas é utilizado nos sistemas de aprendizado de máquina, que são os algoritmos desenvolvidos para detectar automaticamente vídeos que possam ferir as regras do YouTube. Alguns desses conteúdos "duvidosos" também podem receber um selo de checagem de fatos, que utiliza informações de parceiros da plataforma. Política de remoção Se por um lado o YouTube é alvo de críticas por não moderar alguns conteúdos, parte do público aponta que a plataforma pode agir como um "árbitro" ou errar em suas decisões. A gerente de políticas públicas do YouTube afirma que todas as regras são aplicadas "independente de quem publica o conteúdo". Saiba mais: Veja o que as redes sociais anunciaram para conter a desinformação nas eleições de 2020 "O desafio é na formulação das políticas e na aplicação delas de uma forma justa. Por isso temos um processo de notificação para os usuários nos avisarem de conteúdos que podem ferir as regras", disse Juliana Nolasco ao G1. "Também temos um mecanismo para aqueles que tiveram um conteúdo removido possam apelar da decisão", completou. Nesses casos, o conteúdo é reavaliado por um membro diferente do YouTube. Em seguida, o vídeo pode ser restabelecido, receber uma restrição de idade ou continuar fora do site. Veja os vídeos mais assistidos do G1 o