Cadastre-se gratuitamente nas nossas newsletters

Em abril de 2019, uma pesquisa interna do Facebook mostrou que havia um tipo de conteúdo que merecia o mesmo, senão maior, empenho dos times de Integridade e Operações de Comunidade do que para conteúdos violadores das políticas da plataforma: conteúdos borderline (limítrofes).

Para a empresa, borderline é o conteúdo "que não viola as regras, mas chega perto" e que é "problemático em uma área coberta pela Política de Comunidade".

Esses conteúdos limítrofes foram o tema central de um documento visto pelo Núcleo e que faz parte do #FacebookPapers.


É importante porque...

  • É sabido que mesmo conteúdos que explicitamente violam políticas de comunidade acabam escapando da moderação. Quando conteúdos caem na zona cinza, fica ainda mais difícil arbitrar
  • Documento sugere que havia algum favorecimento do algoritmo para conteúdos desse tipo

Materiais desse tipo são "um grande problema" para o Facebook, como escreveu a pessoa que produziu o documento, porque eles tinham uma prevalência 10 vezes maior na entrega para o usuário do que conteúdos que explicitamente violavam as políticas de comunidade.

Além disso, a pesquisa mostrou que esses conteúdos limítrofes geravam 3 vezes mais experiências negativas do que conteúdos em violação.

Pela tendência de conteúdos desse tipo terem maior distribuição, havia "necessidade de intervenção para neutralizar esse incentivo perverso", segundo o documento.

O documento traz exemplos de conteúdos borderline para categorias de violação das políticas de comunidade. É o caso da categoria 'violência': um exemplo seria violência simulada com maquiagens e fantasias e imagens de violência em TV, filmes ou jogos de computador.

A pesquisa mostrou ainda que apesar de estarem numa zona mais cinzenta, conteúdos borderline fazem parte do mesmo ecossistema de conteúdos explicitamente em violação. Isso porque autores de conteúdos em violação tendem a ter tendências mais altas de produção de conteúdos limítrofes em outros posts.

Os documentos vistos pelo Núcleo não detalham, porém, se o FB efetivamente aplicou as mudanças recomendadas nessa ocasião específica.

Veículos internacionais como Protocol e Time escreveram sobre conteúdos borderline.

Em resposta a questionamentos enviados pelo Núcleo, a assessoria de imprensa do Facebook (cuja empresa agora se chama Meta) no Brasil disse:

  • Conteúdos mais inflamatórios sempre se espalharam facilmente entre as pessoas. Essa é uma questão transversal que passa por tecnologia, mídia, política e todos os aspectos da sociedade. Quando esse conteúdo gera danos às pessoas, tomamos medidas em nossa plataforma por meio de nossos produtos e políticas.
  • Estamos sempre fazendo mudanças de produto para melhorar a experiência das pessoas na plataforma. Investimos em pesquisa para nos ajudar a descobrir lacunas em nossos sistemas e identificar problemas a serem corrigidos.

Em maio, Mark Zuckerberg, CEO do Meta, escreveu sobre pesquisas da plataforma com conteúdo borderline.

"Nossa pesquisa sugere que, não importa aonde traçarmos as linhas do que é permitido, à medida que um conteúdo fica próximo dessa linha as pessoas vão se engajar mais com ele na média – mesmo que nos digam depois que não gostaram do conteúdo", escreveu o fundador da plataforma.


COMO FIZEMOS ISSO

Essas informações fazem parte de documentos revelados à Comissão de Valores Mobiliários dos EUA (SEC, na sigla em inglês) e fornecidas ao Congresso dos Estados Unidos de forma editada pela assessoria legal de Frances Haugen. As versões editadas recebidas pelo Congresso dos EUA foram revisadas por um consórcio de veículos de notícias. O Núcleo Jornalismo teve acesso ao documento.

O Núcleo foi convidado a participar do consórcio de veículos internacionais que possuem acesso aos documentos trazidos à tona pela ex-funcionária do Facebook Frances Haugen, no que ficou conhecido como Facebook Papers.

Esses documentos foram primeiramente noticiados pelo Wall Street Journal, que chamou a série de Facebook Files.

Texto Laís Martins
Edição Sérgio Spagnuolo

FacebookFacebookPapersMeta
Acesse o NúcleoHub, nossa comunidade no Discord.