Por Sarah Frier e David Biller.
Enquanto as urnas fechavam no Brasil, no dia 7 de outubro, cientistas de dados, engenheiros e especialistas em políticas do Facebook se reuniram em um novo espaço da sede da empresa, em Menlo Park, na Califórnia, chamado de Sala de Guerra. Monitoravam as tendências nos sites da companhia, como as reportagens que viralizavam e os picos de gastos com propaganda política, e eles perceberam um aumento suspeito nas denúncias dos usuários sobre discurso de ódio.
Os cientistas de dados presentes disseram aos especialistas em política que as publicações maliciosas atacavam pessoas em uma determinada região do Brasil, o Nordeste, que é mais pobre e foi a única onde o candidato de esquerda à presidência venceu. Os especialistas determinaram que o conteúdo dessas publicações violava as regras do Facebook sobre incitar a violência. E um representante de operações certificou-se de que todo esse conteúdo fosse eliminado.
A empresa, a maior rede social do planeta, afirma que por contar com distintos especialistas naquela sala, representando equipes maiores e coordenando a resposta juntos, conseguiu resolver em duas horas o que de outro modo poderia levar vários dias – tempo que é valioso demais para ser desperdiçado durante uma eleição importante.
“Ficamos encantados em ver o quanto conseguimos ser eficientes, do ponto de detecção ao ponto de ação”, disse Samidh Chakrabarti, chefe de engajamento cívico do Facebook, em uma reunião com jornalistas na quarta-feira.
Essa satisfação não é necessariamente compartilhada pela população brasileira. Apesar da iniciativa mais forte e organizada do Facebook para melhorar o conteúdo relacionado à eleição, mesmo assim o maior país da América Latina foi inundado por informações enganosas, e grande parte delas foi distribuída pelos serviços do Facebook. As informações falsas que foram barradas no site principal do Facebook pela rede de verificadores de fatos da empresa conseguiram circular livremente no aplicativo de mensagens WhatsApp, que é criptografado e praticamente impossível de monitorar.
Pablo Ortellado, professor de políticas públicas da Universidade de São Paulo que estudou notícias falsas, disse que o Facebook fez avanços positivos, mas não está abordando o problema em toda a sua magnitude. E ele acha que os esforços da empresa não serão suficientes para domar o WhatsApp, onde o Facebook não tem visibilidade sobre o que está sendo compartilhado exatamente.
“Toda parte maliciosa das campanhas foi para o WhatsApp, aí que foi o problema”, disse ele, em entrevista. “Realmente foi um desastre dessas eleições.”
O Facebook fez algumas melhorias, especialmente ao excluir contas de spam no WhatsApp e rotular os links que foram encaminhados, disse Chakrabarti. Ainda assim, algumas das reportagens mais populares relacionadas à eleição continham informações falsas.
Um representante do WhatsApp disse que o aplicativo está trabalhando em campanhas educativas para ajudar os usuários a entender quais reportagens podem ser confiáveis e que recentemente o limite da quantidade de pessoas que podem receber uma mensagem foi reduzido de 256 para 20, o que pode ajudar a limitar a viralização.
Entre em contato conosco e assine nosso serviço Bloomberg Professional.