A prevalência do discurso de ódio no Facebook caiu pelo quarto trimestre consecutivo, segundo relatório de Aplicação dos Padrões da Comunidade divulgado pela Meta nesta terça-feira (9.nov).

No período, para cada 10 mil visualizações de conteúdo, 3 eram de discurso de ódio, segundo a empresa.

Período Prevalência
Out-Dez 2020 0,07% - 0,08%
Jan-Mar 2021 0,05% - 0,06%
Abri-Jun 2021 0,05%
Jun-Set 2021 0,03%

O relatório também trouxe, pela primeira vez, as métricas de prevalência de discurso de ódio e violência em incitação no Instagram, que ficaram ambas em 0,02% (2 a cada 10 mil) no terceiro trimestre.

A prevalência é uma métrica que considera todas as visualizações de conteúdo no Facebook ou no Instagram e qual parcela destes conteúdos viola as Políticas de Comunidade. Segundo a empresa, é a métrica que melhor representa a experiência do usuário nas redes.

É importante porque...

  • Quanto mais métricas são divulgadas abertamente, mais é possível saber sobre a forma como o Facebook está aplicando a regras sob as quais se propõe a operar
  • Ajustes na inteligência artificial, que podem impactar positivamente países que não são de língua inglesa, podem ter puxado queda na prevalência de conteúdos nocivos

No Facebook, cada 4 a 5 conteúdos em 10 mil conteúdos visualizados continha violência e incitação, e a empresa disse que removeu 13,6 milhões de conteúdos por violarem esta categoria das Políticas de Comunidade, sendo que 96,7% foram detectados proativamente pela empresa.

As mudanças no terceiro trimestre, segundo sugere a empresa, podem ser reflexo da implementação de um novo sistema de inteligência artificial que trabalha para reconhecer diferentes formatos, como vídeos, fotos e texto, e em diferentes línguas, podendo aprender dados em um idioma e aplicar o aprendizado para outros 100 idiomas com alta precisão.

"Por exemplo, neste ano lançamos IA que pode reconhecer três categorias diferentes e relacionadas de violações: discurso de ódio, bullying e assédio, e violência e incitação. Esses temas são todos relacionados, então ter um sistema de IA mais generalizado que pode trabalhar por cima de todos eles nos ajuda a pegar mais violência, e ele está superando os classificadores individuais que substituiu", disse o vice-presidente de Integridade do Facebook, Guy Rosen, em conferência telefônica com jornalistas, da qual o Núcleo participou.

Uma das revelações trazidas à tona pelos documentos do Facebook Papers é de que a moderação de conteúdo do Facebook – realizada hibridamente por revisores humanos e por inteligência artificial – não é tão precisa e capaz de detectar violações em outras línguas como faz para conteúdos de língua inglesa.

A empresa tem recebido bastante cobertura negativa após o vazamento de milhares de documentos e pesquisas internas que mostravam como o Facebook lidou com problemas como desinformação, conteúdo tóxico e saúde mental, por exemplo.

A cobertura brasileira do Facebook Papers
Tudo o que foi publicado por veículos nacionais que tiveram acesso aos documentos
Texto Laís Martins
Edição Sérgio Spagnuolo

Leia também...