Revisores de conteúdo em Essen, Alemanha

Por Monika Bickert, vice-presidente global de Políticas de Conteúdo do Facebook

Atualização em 19 de julho de 2018:

Depois de assistirmos ao programa, queremos passar mais informações sobre alguns pontos importantes levantados pelo Channel 4.

Cross Check

Queremos deixar claro que nós removemos conteúdo do Facebook, não importa quem o publique, quando ele viola nossos padrões. Não há proteções especiais para nenhum grupo político – seja de direita ou esquerda. O “Cross Check”, sistema descrito em “Dispatches”, simplesmente significa que alguns conteúdos de determinadas Páginas ou Perfis recebem uma segunda camada de revisão para garantir que aplicamos nossas políticas corretamente.

Isso normalmente se aplica a perfis importantes, Páginas visitadas regularmente ou a conteúdos específicos no Facebook, para que não sejam removidos ou mantidos na plataforma por engano. Muitas Páginas de organizações de mídia – do Channel 4 à BBC e The Verge – estão no “Cross Check”. Também podemos usar o sistema para conteúdo postado por celebridades, governos ou Páginas em que cometemos erros de revisão de postagens no passado. Por exemplo, utilizamos o sistema para uma conta de um ativista dos direitos civis dos EUA para evitar excluir, por engano, posts em que ele buscava conscientizar as pessoas sobre o discurso de ódio que estava enfrentando.

Para ser claro, o “Cross Check” no Facebook não impede o perfil, a Página ou o conteúdo de ser removido. Isso é feito simplesmente para garantir que a nossa decisão esteja correta.

A Página do Britain First estava no “Cross Check”. Mas a ideia de que isso protegeu o conteúdo da Página é errada. Na verdade, removemos a Britain First do Facebook em março porque eles violaram repetidamente nossos Padrões da Comunidade.

Menores de idade

Nós não permitimos que pessoas com menos de 13 anos tenham uma conta no Facebook. Se alguém denunciar uma pessoa por ter menos de 13 anos, o revisor analisará o conteúdo do perfil (texto e fotos) para tentar descobrir sua idade. Se o revisor acreditar que a pessoa tem menos de 13 anos, a conta será suspensa e a pessoa não conseguirá usar o Facebook até que forneça provas da sua idade. A partir de agora, estamos atualizando as orientações para revisores para que suspendam qualquer conta que eles encontrem que tenham forte indício de ser de alguém de menos de 13 anos, mesmo que a denúncia da comunidade seja por outra razão que não a idade da pessoa.

Texto original – publicado em 17 de julho de 2018

Pessoas ao redor do mundo usam o Facebook para se conectar com amigos e familiares e discutir diferentes ideias. Mas elas só irão compartilhar essas ideias quando se sentirem seguras. É por isso que temos políticas claras sobre o que é permitido no Facebook e processos estabelecidos para aplicar as regras. Estamos trabalhando muito nisso, mas nem sempre acertamos.

Esta semana, uma reportagem do canal de televisão britânico Channel 4 levantou questões importantes sobre essas políticas e processos, incluindo diretrizes que temos dado durante sessões de treinamento a nossos revisores de conteúdo em Dublin. É claro que parte do que está no programa não reflete as políticas ou valores do Facebook, e fica aquém dos altos padrões que esperamos.

Nós levamos nossos erros a sério e somos gratos aos jornalistas que chamaram a nossa atenção sobre eles. Estamos investigando o que aconteceu exatamente para que possamos evitar que esses problemas aconteçam novamente. Por exemplo, exigimos imediatamente que todos os que foram treinados em Dublin fizessem um novo treinamento – e estamos nos preparando para fazer o mesmo globalmente. Também analisamos as questões sobre nossas políticas e as ações de fiscalização que o repórter levantou e corrigimos as falhas que encontramos.

Fornecemos todas essas informações para a equipe do Channel 4, incluindo sobre os pontos que discordamos da análise deles. Nosso vice-presidente de Políticas Globais Richard Allan também respondeu a perguntas em uma entrevista gravada. Nossa resposta por escrito e uma transcrição da entrevista podem ser encontradas na íntegra aqui e aqui.

Foi sugerido que fechar os olhos para conteúdo da baixa qualidade é de nosso interesse comercial. Isso não é verdade. Criar um ambiente seguro onde pessoas de todo o mundo possam compartilhar e se conectar é fundamental para o sucesso de longo prazo do Facebook. Se nossos serviços não forem seguros, as pessoas não compartilharão e, com o tempo, deixarão de usá-los. Os anunciantes também não querem que suas marcas sejam associadas a conteúdo problemático e incoveniente.

Como criamos e aplicamos nossas políticas

Mais de 1,4 bilhão de pessoas usam o Facebook todos os dias ao redor do mundo. Elas publicam em dezenas de idiomas diferentes: tudo, desde fotos e atualizações de status até vídeos ao vivo. Decidir o que permanece e o que é removido envolve uma análise difícil sobre questões complexas – que vão desde bullying e discurso de ódio a terrorismo e crimes de guerra. É por isso que desenvolvemos nossos Padrões da Comunidade com opiniões de especialistas externos, incluindo acadêmicos, ONGs e advogados de todo o mundo. Realizamos três grandes eventos na Europa em maio, onde pudemos ouvir as ideias de defensores dos direitos humanos e da liberdade de expressão, além de especialistas em contraterrorismo e segurança infantil.

Esses Padrões da Comunidade estão disponíveis publicamente há muitos anos. Neste ano, pela primeira vez, publicamos diretrizes mais detalhadas usadas por nossas equipes de revisão para aplicá-las.

Para nos ajudar a gerenciar e revisar o conteúdo, trabalhamos com várias empresas em todo o mundo, incluindo a CPL, a empresa mencionada no programa de TV. Essas equipes analisam denúncias 24 horas por dia, sete dias por semana, em todos os fusos horários e em dezenas de idiomas. Quando necessário, eles compartilham as decisões para os times locais do Facebook, já que essas equipes têm mais conhecimento e contexto no país. Para conteúdos específicos e altamente problemáticos, como abuso infantil, as decisões finais são tomadas por funcionários próprios do Facebook.

Revisar denúncias com rapidez e precisão é essencial para manter as pessoas seguras no Facebook. É por isso que estamos dobrando o número de pessoas trabalhando em nossas equipes de segurança e proteção neste ano para 20 mil. Isso inclui mais de 7.500 revisores de conteúdo. Também estamos investindo fortemente em novas tecnologias para ajudar a lidar com conteúdo problemático no Facebook com mais eficiência. Por exemplo, agora usamos a tecnologia para auxiliar no envio de alertas a revisores com os conhecimentos adequados, para diminuir denúncias duplicadas e ajudar a detectar e remover propaganda terrorista e imagens de abuso sexual infantil antes mesmo que elas sejam denunciadas pela comunidade.

Estamos constantemente aprimorando os nossos Padrões da Comunidade e investimos de forma significativa para poder aplicá-los de maneira eficaz. Essa é uma tarefa complexa e temos mais trabalho a fazer. Mas estamos comprometidos em fazer isso corretamente para o Facebook ser um lugar seguro para as pessoas e seus amigos.