Nesta semana, nos dias 15 e 16, o Facebook recebeu mais de 50 especialistas e organizações de toda a América Latina na Cidade do México para discutir como construir um conselho independente que revisará os conteúdos mais desafiadores e controversos compartilhados na plataforma.

Com mais de 2 bilhões de pessoas usando nossos serviços todos os meses, tomamos inúmeras decisões sem precedentes sobre o tipo de conteúdo que permanece ativo ou é derrubado por violar as políticas da companhia. E embora sempre tentemos encontrar o equilíbrio certo entre dar voz às pessoas e mantê-las seguras, algumas dessas decisões são controversas e acreditamos que o Facebook não deveria tomar essas decisões sozinho.

Esses especialistas, que trabalham em diferentes áreas em nove países latino-americanos, como liberdade de expressão, tecnologia e democracia, justiça processual e direitos humanos, reuniram-se na Cidade do México e discutiram como estruturar e dar vida a um órgão externo capaz de resolver os casos mais difíceis de conteúdo no Facebook.

O workshop faz parte de um projeto de um ano para estruturar um Comitê de Supervisão para decisões de conteúdo, que inclui consultas públicas e debates similares em Cingapura, Nova Délhi, Nairóbi, Berlim e Nova York, entre outras partes do mundo. A iniciativa também demonstra nossos esforços para compartilhar nosso trabalho mais abertamente.

“Gostei de ouvir as ideias de especialistas da América Latina para o design e estrutura do Comitê de Supervisão do Facebook. Todos os dias, assumimos a nossa responsabilidade de manter a comunidade segura, ao mesmo tempo em que damos liberdade às pessoas para expressar suas opiniões a respeito dos assuntos que mais importam para elas. Este conselho analisará algumas das decisões de conteúdo mais desafiadoras do Facebook e é fundamental ter feedbacks de diferentes locais como parte desse processo”, afirma o vice-presidente de Integridade do Facebook, Guy Rosen.

As decisões do Comitê de Supervisão serão mandatárias e o colegiado também poderá recomendar alterações nos Padrões da Comunidade, que são as políticas do que é ou não permitido na plataforma.

Nos últimos dois anos, o Facebook fez investimentos maciços em segurança das pessoas e proteção da plataforma, e agora temos 30 mil pessoas trabalhando nisso. Continuaremos aplicando nossas políticas e ouvindo perspectivas externas para construir a tecnologia e as equipes necessárias para manter as pessoas seguras. Essa é a nossa maior prioridade.

Mais informações:
Blue Print para governança e aplicação de políticas de conteúdo (em Inglês)
Consulta pública sobre Comitê de Supervisão para decisões de conteúdo