Cadastre-se gratuitamente nas nossas newsletters
Reportagem Laís Martins
Arte e gráficos Rodolfo Almeida
Edição Sérgio Spagnuolo

Read this story in English

Grupos que incentivam abuso e exploração sexual de crianças e adolescentes ainda são encontrados com relativa facilidade no Facebook em português, mesmo após a Meta ter reiterado o combate à pornografia infantil como uma de suas prioridades.

Apuração do Núcleo encontrou pelo menos sete grupos públicos no Facebook – acessíveis a qualquer usuário e com milhares de membros – que poderiam ser usados para aliciamento de menores e que mostravam conteúdo de conotação sexual referindo-se a crianças e adolescentes.

Esses grupos mostravam imagens de menores de idade em contexto sexualizado, às vezes com roupas de baixo, e abrigavam comentários de perfis de adultos como 'gostosa, delícia, linda', além de enquetes sobre relações com menores e pedidos para conversas privadas.

Após ser contatado pelo Núcleo, o Facebook derrubou os sete grupos.

Após matéria do Núcleo, Meta derruba sete grupos de exploração sexual infantil
A remoção foi confirmada pela empresa em nota enviada por meio da assessoria de imprensa

As duas maiores e mais flagrantes comunidades (Só Novinhas e Namoro Adolescente) somavam quase 40 mil membros. Em 12 meses, registraram 386 mil interações em 21 mil posts. A reportagem só divulga o nome desses grupos porque foram retirados do ar.

A existência e continuidade de grupos públicos com essa escala, em que circulam conteúdos do tipo, sugere que, apesar de ser prioridade declarada da empresa, os sistemas de moderação do Facebook ainda são insuficientes no combate absoluto contra abuso sexual infantil em sua principal plataforma, pelo menos no Brasil e em português.


É importante porque...

Exploração e abuso sexual infantil são crimes da maior gravidade, mesmo quando ocorrem na esfera virtual

Além do aliciamento de menores, também levanta alertas sobre o uso indevido de imagem de crianças e adolescentes nas redes

Evidencia que mesmo a maior empresa de redes sociais do mundo ainda não dá conta de extinguir conteúdos do tipo de sua principal plataforma


Vale notar que não foram encontradas imagens explícitas de pornografia infantil, mas fica claro pelo contexto que se tratam de conteúdos com conotação sexual envolvendo assuntos ou imagens de menores de idade.

Para apresentar provas da investigação, o Núcleo tomou a decisão de publicar uma versão editada das imagens encontradas, sempre priorizando a privacidade das crianças e adolescentes e removendo qualquer possibilidade de reconhecimento, seguindo o padrão adotado pelo New York Times em 2019, que se baseou em um formato sugerido pelo Canadian Center for Child Protection.

Mesmo com todo esforço de edição, o Núcleo escondeu essas imagens em botões colapsáveis no site. Aconselha-se discrição a quem clicar.

As evidências foram enviadas ao Facebook na íntegra no dia 11.fev.2022, dia no qual todos os 7 grupos encontrados ainda estavam ativos na plataforma.

O Facebook é uma das plataformas acompanhadas pela SaferNet, organização não-governamental que promove os direitos humanos na Internet, que mais possuem denúncias de pornografia infantil nos últimos anos.

Em nota enviada por meio da assessoria de imprensa, o Facebook/Meta disse:

"Removemos os grupos apontados pela reportagem do Núcleo. Não permitimos que nossas plataformas sejam usadas para colocar crianças em perigo. Nossos esforços para combater a exploração infantil se concentram na prevenção de abusos, detecção e denúncia de conteúdos que violam nossas políticas e também no trabalho com especialistas e autoridades para manter as crianças seguras. Temos mais de 40 mil pessoas trabalhando em áreas ligadas à segurança, e usamos uma combinação de denúncias da nossa comunidade, tecnologia e revisão humana para identificar e remover conteúdos que violam nossas políticas. Colaboramos constantemente com as autoridades e investigações, fornecendo informações nos termos da legislação aplicável."

Leia a resposta na íntegra:

Resposta na íntegra: exploração e abuso sexual infantil no Facebook
Veja a resposta do Facebook à nossa reportagem

FACILIDADE DE ENCONTRAR

Não foi preciso cavar fundo e mergulhar nas profundezas da rede social para encontrar grupos do tipo. Inicialmente, nossa reportagem apurava outro assunto, sem correlação, mas bastou um pequeno desvio para chegar a conteúdos sugestivos de exploração sexual de menores.

Um dos grupos vistos pelo Núcleo – removido pelo Facebook após contato com assessoria de imprensa – possuía há quase um ano como imagem de destaque duas garotas vestidas em roupa de banho em uma praia, uma com o rosto completamente visível e o outra, pelo corte da foto, com apenas metade do rosto aparente.

As duas são, inquestionavelmente, menores de idade.

IMAGEM EDITADA (recomenda-se discrição)

imagem editada

"Como são lindas bebezinhas", escreveu um usuário, entre outros comentários mais graves que não serão reproduzidos.

Houve quem criticasse a escolha da foto, dizendo que são crianças e que se tratava de pedofilia. As palavras pedofilia e pedófilo se repetem diversas vezes, mas aparentemente isso não foi suficiente para que o Facebook fosse alertado e tomasse uma ação. Tudo continuou no ar.

texto com linguagem ofensiva (recomenda-se discrição)

imagem editada

É importante pontuar que conteúdos e grupos do tipo não necessariamente podem ser caracterizados como pedofilia, como explicou ao Núcleo a advogada Ana Cifali, do Instituto Alana, que faz parte da Coalizão Direitos na Rede.

"A legislação não usa esse termo de pedofilia, isso está muito mais ligado a uma questão de saúde mental, de pessoas que se sentem atraídas por crianças e adolescentes, quando na verdade há abuso e exploração sexual de crianças também por outras razões", explicou.

"Nem toda pessoa que abusa de uma criança e adolescente é pedófila, mas tem toda uma questão de relação de poder entre crianças e adultos".

No caso dos conteúdos vistos pelo Núcleo, o mais adequado é falar em abuso sexual, que, segundo Cifali, "é toda ação que se utiliza da criança ou adolescente para fins sexuais, seja para conjunção carnal ou qualquer outro ato libidinoso, inclusive por meio eletrônico".

A reportagem encontrou muitos grupos de "namoro entre adolescentes", alguns que parecem destinados a faixas etárias específicas.

Mas mesmo em grupos como esse, que são, em teoria, voltados para um público mais jovem, há perfis de adultos como membros e é possível ainda que haja adultos se passando por crianças em perfis falsos, tática amplamente usada por pedófilos. Ainda que não haja conteúdo explícito ou sugestivo de conotação sexual, esse tipo de prática – conhecida como aliciamento ou child grooming – é por si só problemática.

O Estatuto da Criança e do Adolescente (ECA) trata desse tipo de contato no artigo 241-D, que prevê pena de um a três anos de prisão para quem "aliciar, assediar, instigar ou constranger, por qualquer meio de comunicação, criança, com o fim de com ela praticar ato libidinoso".

Texto com linguagem ofensiva (recomenda-se discrição)

imagem editada

PRIORIDADE

De acordo com suas regras, o Facebook não permite conteúdo que "sexualmente explore ou coloque crianças em perigo".

A empresa diz ainda que remove imagens de crianças nuas mesmo quando postadas pelos pais devido ao "potencial de abuso por outros e para ajudar a evitar a possibilidade de outras pessoas utilizarem ou se apropriarem das imagens".

A legislação brasileira proíbe, tanto pelo ECA quanto pelo Código Civil, a utilização da imagem de crianças sem autorização. O ECA fala em "inviolabilidade da integridade física, psíquica e moral da criança e do adolescente, abrangendo a preservação da imagem, da identidade, da autonomia, dos valores, ideias e crenças, dos espaços e objetos pessoais", e estabelece que é dever de todos zelar por essa integridade.

Texto com linguagem perturbadora (recomenda-se discrição)

imagem editada

Em 2018, a Meta introduziu uma nova tecnologia para combater conteúdo do tipo no Facebook. Além do sistema de photo-matching, que já era usado, a empresa adotou o uso de inteligência artificial e aprendizagem de máquina para "proativamente detectar nudez infantil e conteúdo de exploração infantil quando for publicado".

Como parte do protocolo contra abuso infantil na plataforma, a empresa também denuncia casos identificados ao National Center for Missing and Exploited Children (NCMEC), cumprindo o que prevê a lei. Baseada nos Estados Unidos, essa entidade sem fins lucrativos faz a comunicação com autoridades competentes de cada país.

Em fevereiro do ano passado, a empresa introduziu novos recursos, principalmente visando dissuadir pessoas de engajarem com conteúdo do tipo.

Quando um usuário busca por termos associados à exploração infantil, ele recebe um pop-up que fala sobre as consequências de visualizar conteúdos ilegais e sugere maneiras de obter ajuda.

Usuários que compartilham conteúdos do tipo recebem um alerta de segurança sobre os potenciais danos e sobre as consequências legais de compartilhar material do tipo.

Exemplo de mensagem exibida ao usuário ao se buscar o termo "pedofilia" no Facebook

Mas segundo um whistleblower que forneceu documentos à Comissão de Valores Mobiliários (SEC, na sigla em inglês) dos Estados Unidos em out.2021, a resposta do Facebook a abuso sexual infantil é "inadequada".

Em depoimento à Comissão, ao qual a BBC teve acesso, o ex-funcionário do Facebook (que manteve sua identidade anônima) disse que o problema não foi solucionado porque não havia tido "ativos adequados dedicados ao problema", citando um time pequeno que foi eventualmente desmantelado. O ex-funcionário disse ainda que a empresa não teria dimensão do real problema com abuso infantil porque "não o mede".

No depoimento entregue à Comissão, o funcionário também teria feito um alerta sobre grupos do Facebook, que foram descritos como "facilitadores de danos".

Texto com imagem possivelmente perturbadora (recomenda-se discrição)

imagem editada

Segundo João Victor Archegas, pesquisador do Instituto Tecnologia e Sociedade (ITS-Rio), o reposicionamento do Facebook em direção à "sala de estar virtual", em detrimento da ideia de "praça pública", pode ter favorecido a proliferação de conteúdo danoso em grupos.

Com um foco na construção de comunidades e grupos entre pessoas com interesses em comum, o Facebook teve de fazer um trade-off, explicou ao Núcleo o pesquisador.

"Para construir uma comunidade com interesse específico, você tem que dar muito poder de moderação ao administrador e aos moderadores daquele grupo específico. Então são eles que vão definir as regras, o que pode e o que não pode ser dito, o que pode e o que não pode ser feito dentro desse grupo específico", disse Archegas.

O que você pode fazer para combater abuso e exploração sexual infantil nas redes sociais:
- Denuncie: você pode denunciar aquele conteúdo, grupo ou perfil usando as opções de denúncia das próprias plataformas, mas é importante denunciar para um organismo externo também. A SaferNet Brasil possui um sistema online de denúncias.
- Não compartilhe e não engaje com o conteúdo. Mesmo que a intenção seja chamar atenção para o problema, ao engajar você pode levar o conteúdo mais longe e pode acabar sendo responsabilizado por isso.

DOIS PESOS, DUAS MEDIDAS

Uma coisa que ficou clara a partir dos Facebook Papers é que o Facebook não dedica os mesmos esforços a países do Sul Global que empreende com países de língua inglesa, em especial os Estados Unidos.

Em seu relatório de transparência, a Meta diz que entre julho e setembro de 2021, detectou proativamente 98,9% do conteúdo sobre o qual agiu por nudez e exploração sexual infantil. A quantidade de conteúdos que receberam ações do Facebook caiu de 5 milhões no primeiro trimestre de 2021 para 1,8 milhão no terceiro trimestre, redução que a empresa atribuiu à melhorias na tecnologia de detecção.

Mas os dados divulgados voluntariamente pela empresa ilustram um cenário global, sem detalhamento por país. Visto que conteúdos em língua inglesa costumam receber a maior atenção da moderação, não é possível saber sobre como a plataforma atua para combater abuso sexual infantil em outras línguas.

Para Archegas, é possível que as problemáticas da falta de moderação em línguas além do inglês impactem a remoção e fiscalização de conteúdo de abuso e exploração infantil.

Essa possibilidade é preocupante, visto que a proteção de crianças e adolescentes no Sul Global tende a ser "secundarizada", disse ao Núcleo Maria Mello, coordenadora do programa Criança e Consumo do Instituto Alana.

É interessante cobrar as plataformas e entender se elas de fato estão levando a cabo isso que elas estão prometendo.
Maria Mello, do Instituto Alana

"Tem uma questão para a qual a gente sempre olha que é a desigualdade socioeconômica, regional entre entre os países. Então muitas vezes uma prática, uma política que é anunciada globalmente demora mais para ser instaurada em países do Sul Global", explicou Mello.

RESPONSABILIDADE COMPARTILHADA

É dever de todos zelar pela integridade das crianças e adolescentes, estabelece o Estatuto da Criança e do Adolescente. A responsabilidade de fiscalizar e denunciar abuso e exploração sexual infantil, inclusive a virtual, é de todos e não só das famílias.

"A gente sempre bate muito nessa tecla de como essa é uma responsabilidade que não pode ser só das famílias. Ela precisa ser compartilhada por toda a sociedade, começando pelas plataformas, pelo Estado que vai ter que dar conta de achar maneiras de acompanhar a atuação dessas plataformas", disse Mello.

Em 2021, a SaferNet recebeu 101,8 mil denúncias de pornografia infantil através de seu serviço de recebimento de denúncias. O número representou um aumento de 3,65% na comparação com 2020 e foi a primeira vez desde 2011 que a entidade recebeu mais de 100 mil denúncias.

Segundo a SaferNet, os conteúdos de pornografia infantil estavam hospedados em 53,9 mil páginas de internet, das quais 23,5 mil foram removidas.

COMO FIZEMOS

Encontramos esses grupos enquanto fazíamos uma outra apuração, sobre grupos fetichistas do tipo moneyslave. Em uma publicação em um grupo desse, havia um comentário que sugeria a existência de grupos que focavam em menores de idade. Começamos uma busca por grupos do tipo. Numa primeira tentativa, usando o termo novinha já encontramos um grupo, o mais grave de todos.  

Usando um perfil alternativo (sem foto e recém-criado), entramos nos grupos públicos e pedimos para entrar em grupos privados – todas as solicitações foram atendidas em menos de um dia. Acompanhando as publicações e discussões nestes grupos, percebemos que havia um segundo tipo de grupo onde práticas criminosas do tipo aconteciam: os grupos de namoro.

Originalmente voltados para adolescentes e alguns delimitados para faixas etárias específicas (por exemplo: "meninas e meninos de 11 a 15 anos"), esses grupos públicos, um com mais de 30 mil membros, são chamariz perfeito para abusadores. Esses espaços servem bem para adultos interessados em aliciar menores, tanto que alguns jovens comentam sobre abordagens do tipo e alertam outros para que tomem cuidado com as pessoas que conversam.

Salvamos prints de publicações e links dos grupos e, ainda durante a apuração, compartilhamos com o Facebook por meio da assessoria de imprensa.

Os dados sobre denúncias de pornografia infantil são da Indicadores da Central Nacional de Denúncias de Crimes Cibernéticos, mantida pela ONG SaferNet, e podem ser encontrados neste link.