Por Alex Schultz, vice-presidente de Análise de Dados

Ter métricas precisas ajuda as organizações na tomada decisões inteligentes sobre as escolhas que precisam fazer – em vez de simplesmente confiar em anedotas ou intuição. Parafraseando o conhecido consultor de gestão Peter Drucker: o que você mede, você pode melhorar. É uma premissa que tentamos colocar em prática quando se trata de segurança no Facebook.

Construímos o Facebook para ser um lugar onde as pessoas podem discutir abertamente sobre diferentes ideias, até mesmo ideias que algumas pessoas podem achar controversas ou ofensivas. Mas também queremos garantir que nosso serviço seja seguro para todos. Às vezes isso é um equilíbrio difícil de conseguir.

No mês passado, pela primeira vez, publicamos as diretrizes que nossa equipe de revisão usa para decidir o que permanece e o que é removido do Facebook. E hoje, novamente pela primeira vez, estamos compartilhando os dados que usamos internamente para avaliar nossa eficácia na aplicação de nossos Padrões da Comunidade. É um trabalho em andamento – e provavelmente mudaremos nossa metodologia ao longo do tempo, à medida que aprendermos mais sobre o que é importante e o que funciona.

O relatório de hoje fornece uma descrição detalhada de nossos processos internos e metodologia de dados. É uma tentativa de informar sobre como o Facebook está fazendo a remoção de conteúdos ruins de nossa plataforma, para que você possa ser fazer sua própria avaliação. E foi elaborado para tornar mais fácil que acadêmicos, políticos e grupos comunitários nos forneçam feedback para que possamos melhorar ao longo do tempo.

Nós não podemos mudar o fato de que as pessoas sempre tentarão postar coisas ruins no Facebook – seja discurso de ódio, propaganda terrorista ou imagens de exploração infantil. Mas podemos tentar controlar quantas vezes o conteúdo que viola nossos Padrões da Comunidade é visto. Como responsável por análise de dados, lidero a equipe responsável por medir nosso trabalho nessa área, para que a empresa possa entender melhor como efetivamente estamos aplicando nossas políticas.

Impacto total

A métrica mais importante que usamos é o impacto: o dano que qualquer conteúdo ruim tem quando é publicado no Facebook. Nossa fórmula conceitual para analisar isso é bem direta. Medimos a frequência com que o conteúdo é visto (“visualizações”) e quão grave é o impacto de cada visualização nas pessoas que a visualizam, bem como na comunidade de forma mais ampla:

Impacto total = visualizações de violação de conteúdo x impacto da violação de conteúdo por visualização

As visualizações são relativamente fáceis de contar. Nós simplesmente medimos o número de vezes que as pessoas veem alguma coisa. Por outro lado, é muito mais difícil avaliar o impacto com precisão. Por exemplo, quão impactado negativamente é alguém que vê discurso de ódio versus alguém que vê violência gráfica? E qual é a diferença percentual? Como você compara a severidade da propaganda terrorista às imagens de crianças sendo abusadas sexualmente?

A resposta é que não podemos comparar numericamente seu impacto. Mas podemos categorizar e priorizar os diferentes tipos de danos. E sim, você provavelmente está pensando que isso será subjetivo. E você está certo, há um elemento de subjetividade envolvido em como fazemos isso. Mas a priorização nos ajuda a dedicar recursos mais rapidamente ao conteúdo que acreditamos representar um perigo mais iminente.

Aqui está um exemplo. Suponha que alguém publique uma imagem nua no Facebook. Isso é contra nossas políticas e nós trabalhamos para removê-la. Na verdade, nossos filtros de nudez são muito eficazes agora. Mas suponha que essa imagem tenha sido publicada por um homem em busca de vingança contra a mulher que terminou um relacionamento com ele. Nós consideraríamos que isso teria um impacto negativo maior e nós priorizaríamos esse conteúdo em nossa fila de remoções – mais ou menos como acontece na triagem feita de um pronto-socorro. Todo paciente é importante. Mas os casos mais críticos vão primeiro.

Com que frequência um conteúdo ruim é visto no Facebook?

Dentro de cada categoria específica de abuso – sejam contas falsas, discurso de ódio, nudez etc. -, nos preocupamos mais com a frequência com que o conteúdo que viola nossos padrões é visto em relação ao total de vezes que qualquer conteúdo é visto no Facebook. Isso é o que chamamos de prevalência. É uma medida de quantas vezes algo é visto, não quanto tempo algo fica no Facebook. Se um discurso de ódio é visto um milhão de vezes em 10 minutos, isso é muito pior do que um conteúdo visto 10 vezes em 30 minutos.

Nós calculamos essa métrica selecionando uma amostra de conteúdos do Facebook e, em seguida, rotulando quais deles não deveriam estar na plataforma. Você pode ler sobre isso com mais profundidade em um guia que preparamos sobre esses dados. Estamos à procura de prevalência, então nos concentramos na quantidade de conteúdo que é visto, e não em quanto o conteúdo absoluto viola as nossas regras. Em outras palavras, nós não tratamos todo o conteúdo da mesma forma: isso significa que uma publicação vista um milhão de vezes tem um milhão de vezes mais chances de ser usado como parte da amostra, e isso é uma coisa boa.

Entendemos que algumas pessoas acreditam que devemos publicar métricas sobre quanto tempo o Facebook leva para remover conteúdo, como publicações ou imagens que violam nossos padrões. Mas não acreditamos que o tempo seja a melhor métrica para policiar de maneira eficaz o nosso serviço. Também é importante lembrar que cometemos erros. Às vezes, é porque removemos o conteúdo que não violou nossos Padrões da Comunidade (chamamos esses casos de falsos positivos). Outras vezes, é porque não removemos o conteúdo que deveríamos ter removido. Qualquer erro pode prejudicar pessoas e isso nos motiva a fazer melhor.

O Facebook está investindo muito em mais pessoas para revisar o conteúdo que é denunciado pela comunidade. Mas, como o vice-presidente Guy Rosen explicou há duas semanas, novas tecnologias, como machine learning, computer vision e inteligência artificial nos ajudam a encontrar mais conteúdo ruim com mais rapidez – com mais rapidez e em uma escala muito maior do que as pessoas conseguiriam. Na verdade, graças a inteligência artificial podemos retirar conteúdos ruins do Facebook antes mesmo de serem denunciados. É por isso que agora medimos com que frequência o Facebook identifica conteúdos nocivos antes mesmo de que eles sejam denunciados. Melhorar essa taxa ao longo do tempo é essencial, pois isso reduz diretamente o impacto negativo que o conteúdo ruim tem sobre as pessoas que usam o Facebook.

Encontrando o bom

Como homossexual, experimentei algumas das melhores e piores coisas que o nosso serviço e as pessoas que o usam ele podem oferecer. O Facebook me ajudou a encontrar uma comunidade quando me senti sozinho e isolado. E nossas configurações de privacidade me ajudaram a compartilhar com os amigos e, ao mesmo tempo, controlar minha exposição quando assumi minha opção sexual. Contudo, à medida que me tornei uma figura mais conhecida devido à minha posição no Facebook, isso me expôs a situações de abuso que às vezes me deixaram deprimido e assustado.

Esses tipos de experiências pessoais nos fazem querer garantir que as experiências das pessoas no Facebook sejam positivas. Espero que os dados que estamos divulgando hoje sobre os conteúdos que removemos, este texto e a guia sobre os dados mostrem como estamos tentando fazer isso e iniciem uma discussão sobre como podemos fazer melhor. Porque quando você tem métricas, você pode melhorar.