Rede social está ajustando seus algoritmos para ter foco maior em publicações com mensagens ofensivas a negros, gays e outros grupos. Facebook vai ajustar seus algoritmos de detecção de conteúdo de ódio para priorizar determinados grupos. AP Photo/Jenny Kane O Facebook vai passar a priorizar o uso de seus algoritmos de moderação para remover conteúdo ofensivo contra negros, gays e outros grupos historicamente atacados. As mudanças nos sistemas que detectam xingamentos e discurso de ódio de forma pró-ativa ainda estão em estágios inicias, de acordo com documentos obtidos pelo jornal "Washington Post". O G1 confirmou com fontes que essas mudanças serão realizadas e que, por enquanto, só valem em inglês. O objetivo da alteração é que a rede social remova mais publicações ofensivas direcionadas para pessoas negras, muçulmanos, judeus e a comunidade LGBTQ+. As publicações contra os demais grupos serão mantidas nas regras, mas irão depender de denúncias feitas por usuários. Isso será feito com o uso prioritário de inteligência artificial para determinados ataques – os sistemas da companhia vão focar na remoção automática de afirmações como "pessoas gays são nojentas" em comparação com "homens são porcos", como indica o "Washington Post". As regras do Facebook e Instagram não permitem discurso de ódio, e publicações violentas ou que desumanizem grupos com base em sua raça, gênero, sexualidade e outras características estão entre as proibidas pela empresa. Até agora, os algoritmos da companhia não faziam distinções entre grupos com maior probabilidade de serem alvos de ataque. Análises internas da rede social identificaram que esse tratamento, muitas vezes, resultou na remoção de conteúdos que protestavam contra o racismo, por exemplo. Mesmo com as mudanças, publicações contra todos os grupos serão consideradas como discurso de ódio. A diferença é que a remoção de conteúdos considerados menos prejudiciais dependerá mais das denúncias dos próprios usuários. Os documentos obtidos pelo jornal americano apontam que essa decisão irá diminuir as remoções de conteúdo em cerca de 10 mil publicações por dia. "Sabemos que o discurso de ódio dirigido a grupos sub-representados pode ser o mais prejudicial, e é por isso que focamos nossa tecnologia em encontrar o discurso de ódio que os usuários e especialistas nos dizem ser o mais grave", disse a porta-voz do Facebook, Sally Aldous, em comunicado (veja íntegra abaixo). A mudança é anunciada em meio à pressão de grupos de direitos civis que há muito tempo reclamam que a empresa faz pouco contra o discurso de ódio. No início deste ano, mais de 1.000 anunciantes boicotaram o Facebook para protestar contra seu tratamento ao discurso de ódio e desinformação. Saiba mais: Por que grandes empresas decidiram boicotar o Facebook A moderação de conteúdos nas redes sociais é frequente alvo de críticas de especialistas e usuários. Há questionamentos sobre a agilidade das remoções, sobre a consistência da aplicação de regras e, em outros casos, sobre possíveis restrições à liberdade de expressão. Leia a íntegra do posicionamento da porta-voz do Facebook: "Sabemos que o discurso de ódio direcionado aos grupos sub-representados pode ser o mais danoso, e é por isso que focamos nossas tecnologias na busca do discurso de ódio que usuários e especialistas nos dizem ser os mais sérios. No último ano, nós também atualizamos nossas políticas para detectar mais discurso de ódio implícito, como conteúdos mostrando Blackface, estereótipos sobre judeus controlando o mundo, e banimos a negação do Holocausto. Graças a investimentos significativos em nossas tecnologias, detectamos de forma proativa 95% do conteúdo que removemos e vamos continuar a melhorar a maneira como aplicamos nossas regras na medida em que o discurso de ódio evolui no decorrer do tempo" – Sally Aldous, porta-voz do Facebook. VÍDEOS de tecnologia: