Moderadores avaliam conteúdo que precisa ser removido e frequentemente são submetidos a imagens fortes e publicações violentas. Quem trabalha com moderação de conteúdo está exposto ao pior que a internet tem a oferecer Facebook O Facebook fechou um acordo para pagar US$ 52 milhões em indenização a moderadores de conteúdo que desenvolveram síndrome de estresse pós-traumático, depressão e outras doenças psicológicas. O acordo vai beneficiar atuais e ex-funcionários e inclui ainda o pagamento de acompanhamento médico. 'Checava se alguém se mataria ao vivo': a rotina de um moderador brasileiro no Facebook De acordo com o site The Verge, o acordo foi protocolado na Corte Superior de San Mateo, na Califórnia. O G1 confirmou a informação junto ao Facebook. O acordo foi fechado com 11.250 moderadores de conteúdo da rede social, cada um vai receber no mínimo US$ 1 mil e poderá receber mais caso tenha desenvolvido algum tipo de problema psicológico em decorrência do trabalho. Moderadores frequentemente são submetidos a conteúdo denunciado por usuários, o que inclui imagens fortes e violentas. Em 2018, uma ex-funcionária terceirizada processou a empresa após desenvolver síndrome do estresse pós-traumático enquanto trabalhava revisando vídeos e fotografias de estupros, suicídios, decapitações. O Facebook também concordou na ação em implementar mudanças para diminuir o impacto do material que esses moderadores de conteúdo têm que assistir. Até o final deste ano, os vídeos serão exibidos mudos por padrão e as imagens serão em preto e branco. Essa mudança deve ser aplicada a 80% dos moderadores até o final deste ano e a 100% deles até o fim de 2021. Moderadores submetidos a conteúdo perturbador e gráfico diariamente terão acesso a sessões de aconselhamento com um profissional licenciado uma vez por semana. Aqueles que tiverem crises deverão ser atendidos em até 24 horas. “Somos gratos às pessoas que fazem esse importante trabalho para tornar o Facebook um ambiente seguro para todos. Estamos comprometidos em fornecer suporte adicional a eles por meio deste acordo e no futuro", disse a empresa em nota. O Facebook e outras redes sociais são frequentemente criticados por como lidam e removem conteúdo nocivo. No ano passado, diretor de tecnologia do Facebook, Mike Schroepfer, apresentou avanços em ferramentas de inteligência artificial para remoção de publicações nocivas, mas afirmou que moderação humana ainda é necessária. “É um trabalho complicado e é por isso que as pessoas estão céticas quando dizemos que estamos tentando resolver problemas de segurança no Facebook”, disse ele na ocasião. “É fácil perder a esperança diante de vários conteúdos que aparecem na rede todos os dias, mas inteligência artificial é nossa melhor aposta em manter a plataforma segura.