Por Samidh Chakrabarti, Diretor de Produto, Engajamento Cívico

Nos últimos dois anos, fizemos progressos constantes para impedir interferências nas eleições no Facebook. Mas à medida que nossas equipes têm mais conhecimento sobre as táticas usadas por pessoas mal intencionadas, esses adversários também evoluem nas formas de tentar abusar de nossos serviços. Então, em setembro, antes das eleições no Brasil e nos Estados Unidos, abrimos nossa primeira war room física de eleições em Menlo Park, Califórnia. Nosso objetivo é reunir os especialistas certos em toda a empresa em um único lugar para que eles possam solucionar potenciais problemas identificados pela nossa tecnologia em tempo real e responder rapidamente.

A war room tem mais de 20 especialistas de toda a empresa – entre eles representantes dos times de inteligência contra ameaças, ciência de dados, engenharia de software, pesquisa, operações de comunidade e jurídico. Esses funcionários representam e são apoiados por mais de 20 mil pessoas que trabalham com segurança e proteção no Facebook. Quando todos estão no mesmo lugar, as equipes podem tomar decisões mais rapidamente, reagindo imediatamente a quaisquer ameaças identificadas pelos nossos sistemas, o que pode reduzir a disseminação de conteúdo potencialmente nocivo.

Nossos painéis de dados oferecem monitoramento em tempo real sobre as principais questões eleitorais, como tentativas de impedir ou desestimular o voto, aumento de spam, possíveis interferências estrangeiras ou denúncias de conteúdos que violem nossas políticas. A equipe também monitora cobertura de notícias e atividades relacionadas a eleições em outras redes sociais e mídias tradicionais. Esses esforços nos dão uma visão coletiva e ajudam a rastrear qual tipo de conteúdo pode se tornar viral. Para se preparar, nossa equipe também fez um amplo planejamento de cenários para desvendar potenciais ameaças potenciais – de assédio a supressão de votos – e desenvolveu sistemas e procedimentos com antecedência para responder de forma mais eficaz.

Essas preparações ajudaram muito durante o primeiro turno das eleições presidenciais no Brasil. Por exemplo, nossa tecnologia detectou um post falso alegando que o dia da eleição no Brasil havia sido transferido de 7 de outubro para 8 de outubro devido a protestos nacionais. Embora não seja verdade, essa mensagem começou a se tornar viral. Detectamos rapidamente o problema, determinamos que o post violou nossas políticas e removemos o conteúdo em menos de uma hora. Em duas horas, removemos outras versões do mesmo post com a informação falsa.

Em outro exemplo, depois que os resultados do primeiro turno foram divulgados, nossos sistemas detectaram um aumento no discurso de ódio. Depois de investigar, encontramos conteúdo de ódio que surgiu para estimular a violência contra pessoas da região Nordeste. Nossa equipe de operações da comunidade conseguiu remover esses posts duas horas depois de nossa tecnologia enviar alertas para a equipe na war room.

O trabalho que estamos fazendo na war room se baseia em quase dois anos de trabalho duro e investimentos significativos, tanto em pessoas quanto em tecnologia, para melhorar a segurança no Facebook, inclusive durante as eleições. Nossa tecnologia de machine learning e inteligência artificial agora é capaz de bloquear ou desabilitar contas falsas de forma mais eficaz – que é a origem de muitos dos problemas. Aumentamos a transparência de anúncios e a responsabilidade sobre publicidade veiculada na plataforma. E continuamos a progredir na luta contra notícias falsas e desinformação. Dito isso, segurança continua sendo uma batalha permanente e ficar à frente dos adversários exigirá aperfeiçoamentos ao longo do tempo. Estamos comprometidos com esse desafio.