Por Monika Bickert, diretora global de Políticas de Conteúdo do Facebook.

No mês passado, foram compartilhados no Facebook muitos vídeos hediondos de crianças sírias vítimas de ataques químicos. Os vídeos, que também estavam espalhados por toda a internet, mostravam crianças tremendo, em dificuldade para respirar e, eventualmente, morrendo.

As imagens eram profundamente chocantes – tão chocantes que colocamos uma tela de aviso nelas. Mas as imagens também geraram indignação internacional e atenção renovada sobre a situação dos sírios. Revisar material online em escala global é desafiador e essencial. Como a pessoa responsável por cuidar desse trabalho no Facebook, quero explicar como definimos o que é permitido ou não na plataforma.

Em média, mais de 1 bilhão de pessoas usam o Facebook todos os dias. Elas compartilham posts em dezenas de idiomas: todo o tipo de conteúdo, de fotos a vídeos ao vivo. Um percentual muito pequeno disso será denunciado a nós para investigação. A variedade de assuntos é ampla e complexa, envolvendo temas como bullying, discurso de ódio e terrorismo. Estabelecer políticas que mantenham as pessoas seguras e permitam que elas se expressem livremente significa compreender o surgimento de novos debates sociais e como eles se manifestam online, e ser capaz de responder rapidamente a milhões de denúncias que recebemos semanalmente de pessoas de todo o mundo.

Para nossos revisores de conteúdo, há outro desafio: entender o contexto. É difícil julgar a intenção por trás de uma postagem, ou o risco implícito em outra. Alguém publica um vídeo sobre um ataque terrorista. Esse vídeo vai inspirar mais pessoas a serem violentas ou a falar contra isso? Alguém publica uma piada sobre suicídio. Essa pessoa está apenas brincando ou aquilo é um pedido de ajuda?

No Reino Unido, fazer críticas à monarquia pode ser aceitável. Em algumas partes do mundo, isso levará a pessoa para a cadeia. A legislação pode fornecer uma orientação, mas geralmente o que é aceitável está mais relacionado a normas e expectativas. Novas maneiras de contar histórias e compartilhar imagens podem trazer a tona essas tensões mais rápido do que nunca.

Nós queremos manter nossa plataforma segura. Nós nem sempre compartilhamos detalhes de nossas políticas, porque não queremos encorajar algumas pessoas a encontrar subterfúgios. Mas nós divulgamos nossos Padrões de Comunidade, que determinam o que é permitido e o que não é permitido no Facebook, e por que.

Nossos padrões mudam com o passar do tempo. Estamos o tempo todo em diálogo com especialistas e organizações locais, sobre todos os assuntos, de segurança de crianças a terrorismo e direitos humanos. Algumas vezes, isso significa que nossas políticas podem parecer contraintuitivas. Como publicado pelo jornal britânico The Guardian, especialistas em auto-mutilação aconselharam que poderia ser melhor não interromper a transmissão de vídeos ao vivo sobre auto-mutilação, para que as pessoas possam ser alertadas e ajudadas, e que esses vídeos deveriam ser retirados da plataforma posteriormente para prevenir cópias e edições do material. Quando uma garota em Georgia, nos Estados Unidos, tentou se suicidar duas semanas atrás enquanto fazia uma transmissão pelo Facebook Live, seus amigos puderam notificar a polícia, que conseguiu salvá-la.

Trabalhamos muito para manter a objetividade. Os casos que revisamos não são fáceis: eles frequentemente estão em uma área cinzenta, onde há divergência de opiniões. Arte e pornografia não são sempre fáceis de se distinguir, mas identificamos que imagens de nudez geradas digitalmente têm chance maior de ser pornografia do que imagens desenhadas à mão, então nossa política reflete isso.

Há uma grande diferença em expressões gerais de ódio e ameaças concretas a pessoas específicas, então nós permitimos a primeira e não a segunda.

Estas tensões – entre aumentar a consciência sobre a violência e promovê-la, entre a liberdade de expressão e a liberdade de viver sem medo, entre testemunhar algo e ficar espantado por isso – são complicadas, e raramente existem padrões legais universais que forneçam clareza sobre como agir. Ser o mais objetivo possível é o único caminho para que possamos ser consistentes em todo o mundo. Mas ainda haverá algumas ocasiões em que vamos tomar decisões erradas sobre conteúdos.

As situações hipotéticas que usamos para treinar nossos revisores são extremas de forma intencional. Elas são elaboradas para ajudar as pessoas que fazem esse trabalho a lidar com os casos mais difíceis. Quando criamos nossos padrões de conteúdo perto de uma década atrás, muito foi deixado a critério de funcionários. Mas pelo fato de duas pessoas nunca terem visões idênticas sobre o que define discurso de ódio e bullying, ou uma série de outras coisas, nós agora incluímos definições mais claras.

Nós enfrentamos críticas de pessoas que querem mais censura e de pessoas que querem menos. Vemos isso como um sinal de que não estamos avançando demais em nenhuma das duas direções. Espero que os leitores entendam que assumimos nossa responsabilidade seriamente. Para muitos de nós que trabalhamos no Facebook, segurança é uma crença que antecede nosso trabalho na companhia: eu trabalhei por mais de uma década como procuradora criminal, investigando de exploração sexual de crianças a terrorismo. Nosso time também inclui um especialista em antiterrorismo do Reino Unido, um ex-diretor de pesquisa do West Point’s Combating Terrorism Center, uma especialista em apoio a vítimas de estupro e uma professora.

Todos nós sabemos que há mais que podemos fazer. No mês passado, anunciamos que estamos contratando mais 3.000 pessoas para revisar conteúdos que são denunciados. Isso é um trabalho árduo, e vamos continuar a fazer mais para garantir que estamos fornecendo a esses profissionais o apoio adequado, tornando mais fácil e ágil o processo para tomar decisões difíceis e garantindo o suporte psicológico que eles precisam.

A tecnologia deu às pessoas poder para que se comuniquem como nunca antes. Nós acreditamos que os benefícios disso superam em muito os riscos. Mas nós também reconhecemos que a sociedade ainda está descobrindo o que é aceitável e o que é prejudicial, e nós, no Facebook, devemos ser uma peça importante das conversações.