Por Tom Alison, vice-presidente de Engenharia

Os Grupos privados no Facebook podem ser  locais importantes para as pessoas se reunirem e compartilharem  sobre uma série de assuntos pessoais, como a identificação como LGBTQ ou sobre os desafios que envolvem uma doença rara.

Mas estar em um Grupo privado não significa que suas ações não devam ser verificadas. Temos a responsabilidade de manter o Facebook seguro. Portanto, nossos Padrões da Comunidade se aplicam a todo o Facebook, incluindo os Grupos privados. Para aplicar essas políticas, usamos uma combinação de pessoas e tecnologia: revisores de conteúdo e detecção proativa. Nos últimos anos, investimos bastante em ambos, inclusive na contratação de mais de 30 mil pessoas para nossas equipes de segurança.

Nesse âmbito, um time especializado está trabalhando na Iniciativa Comunidades Seguras: um trabalho que começou há dois anos com o objetivo  de proteger as pessoas que usam os Grupos do Facebook. Formada por gerentes de produto, engenheiros, especialistas em aprendizado de máquina e revisores de conteúdo, essa equipe tem como função prever possíveis maneiras de como as pessoas poderiam prejudicar os Grupos e desenvolver soluções para minimizá-las e evitá-las. Como responsável pelos Grupos do Facebook, quero explicar como estamos tornando os Grupos privados mais seguros com foco  em três áreas principais: detecção proativa, ferramentas para administradores, e transparência e controle para os membros.

Detecção proativa para moderar os grupos

Uma das principais formas para mantermos as pessoas seguras é identificar e remover proativamente publicações e Grupos que violem nossas regras. Essa é uma área importante para a Iniciativa Comunidades Seguras e envolve Grupos privados e públicos.

Cada vez mais, podemos usar Inteligência Artificial (AI) e aprendizado de máquina para detectar proativamente conteúdo mal-intencionado, antes que alguém o denuncie e, às vezes, antes mesmo que as pessoas o vejam. Quando o conteúdo é sinalizado por nossos sistemas ou denunciado pelas pessoas, revisores treinados consideram o contexto e determinam se ele viola nossos Padrões da Comunidade. Depois, usamos esses exemplos para treinar nossa tecnologia e aprimorá-la a fim de localizar e remover conteúdo semelhante. Anteriormente, usávamos detecção proativa em Grupos públicos, fechados e secretos. Esse processo continuará a ser aplicado a todos os Grupos públicos e privados no nosso novo modelo simplificado de privacidade.

Decidir se um Grupo inteiro deve ser removido ou não é um processo complexo. Se uma publicação individual viola nossos Padrões da Comunidade, ela é removida; mas, com dezenas, centenas e, às vezes, milhares de membros e publicações diferentes, quando um Grupo deve ser considerado inaceitável para o Facebook?

Um fator importante que analisamos é o tema: o nome e a descrição do Grupo incluem discurso de ódio ou outro conteúdo que não permitimos? Outro fator importante é a ação de administradores e moderadores, pois eles definem os rumos do Grupo. Em abril, atualizamos nossa política para analisar mais profundamente o comportamento do administrador e do moderador. Se os líderes do Grupo violam nossas regras com frequência ou se normalmente aprovam publicações de outros membros que violam as regras, essas são indicações claras contra o Grupo todo. E se o membro de um Grupo violar repetidamente as nossas políticas, começaremos a pedir para os administradores revisarem as publicações dele antes que alguém possa vê-las. Em seguida, se um administrador aprovar uma publicação que viole nossas regras, será uma indicação contra o Grupo todo. Esses fatores, combinados com alguns outros, nos ajudam a determinar se o Grupo deve ser removido. Se ele não ultrapassar esse limite, será mantido ativo, mas continuaremos removendo publicações individuais que violem os nossos Padrões da Comunidade.

Ferramentas para administradores

Os administradores são as pessoas que melhor conhecem suas comunidades, e queremos capacitá-los para que gerenciam Grupos significativos. É por isso que criamos a seção Qualidade do Grupo, que dá aos administradores uma visão geral do conteúdo que foi removido pelo Facebook e sinalizado por violações dos Padrões da Comunidade. Também adicionamos uma seção sobre notícias falsas encontradas no Grupo. Essas ferramentas oferecem aos administradores mais clareza sobre como e quando aplicamos nossas políticas aos Grupos e ampliam sua visão do que está acontecendo em suas comunidades. Isso também significa que eles são mais responsáveis pelo que acontece sob a supervisão deles.

Ajudamos os administradores a estabelecer normas positivas no Grupo, adicionando uma seção de regras para que possam ter certeza sobre o que é permitido e proibido. Administradores e moderadores também têm a opção de compartilhar qual regra um membro violou, recusando uma publicação pendente, removendo um comentário ou silenciando um membro.

Transparência e controle para membros

Nosso compromisso também é oferecer aos membros do Grupo mais transparência e controle. Quando alguém participa de um Grupo, deve saber  o tipo de comunidade que fará parte. É por isso que, antes de participar de um Grupo, permitimos que as pessoas vejam detalhes relevantes sobre ele, como quem são os administradores/moderadores e se o Grupo teve algum outro nome no passado. Você também pode ver uma prévia de um Grupo para o qual foi convidado(a) e tem a opção de aceitar ou recusar o convite.

Com a Iniciativa Comunidades Seguras, continuaremos garantindo que os Grupos do Facebook sejam locais de apoio e conexão, não de ódio ou ações mal-intencionadas. Há sempre mais a fazer e continuaremos desenvolvendo nossas tecnologias, ferramentas e políticas para ajudar a manter as pessoas seguras.