De l'extérieur, peu de choses distinguent cette "salle de crise" des autres salles de réunion situées dans les dizaines de bâtiments du tentaculaire siège du réseau social en Californie. Si ce n'est sa porte vitrée teintée, où est scotché un petit panneau "WAR ROOM" en grosses lettres rouges au style rétro.
A l'intérieur, des horloges sur plusieurs fuseaux horaires, des écrans branchés sur CNN, Fox News ou Twitter, des dizaines d'ordinateurs, des cartes des Etats-Unis et du Brésil. Fixés au mur, d'autres écrans montrent des graphiques qui suivent l'activité sur le réseau en temps réel, prêts à donner l'alerte en cas d'anomalie.
"Notre job est de détecter (...) quiconque essaie de manipuler le débat public", résume Nathaniel Gleicher, à la tête de la cybersécurité de Facebook et ancien du Conseil national de sécurité à la Maison Blanche.
Et surtout, d'agir vite. C'est le but de la War Room, lancée en septembre et qui a fait son baptême du feu avec le premier tour de la présidentielle brésilienne le 7 octobre.
"Le jour de l'élection, nous avons observé une hausse de messages (trompeurs) disant que l'élection était reportée à cause de manifestations", explique Samidh Chakrabarti, l'un des responsables élections et engagement civique au sein du réseau social.
"Nous avons été capables de les retirer avant que l'histoire ne devienne virale", assure-t-il.
Cela s'est fait en "une heure ou deux" alors que "cela aurait pu prendre plusieurs jours" sans la "War Room" et ses employés dédiés.
- "Face-à-face" -
Derrière un écran où est fixé un petit drapeau du Brésil, un jeune homme à chapeau gris est l'un d'eux. Interdiction aux journalistes de l'interroger mais sa mission est évidente: surveiller le deuxième tour de la présidentielle, le 28 octobre.
Depuis que Facebook a reconnu avoir totalement sous-estimé la manipulation de l'élection présidentielle américaine de 2016 via les réseaux sociaux, le groupe américain a mis les bouchées doubles sur le sujet et n'en finit plus de détailler tout ce qu'il met en oeuvre pour détecter les activités malveillantes destinées à attiser les fractures idéologiques ou à tromper les électeurs.
Cette fois, Facebook a décidé de créer un centre de commandement physique, avec des analystes de données, ingénieurs informatiques, juristes, ou experts en menaces ... réunis au même endroit pour être plus rapides et efficaces.
Contrairement aux machines, "les humains peuvent s'adapter très vite aux nouvelles menaces", note M. Gleicher.
Même si le groupe prospère depuis près de 15 ans sur les interactions virtuelles entre "amis" parfois situés à des milliers de kilomètres les uns des autres, "rien ne vaut la communication en face-à-face", reconnaît M. Chakrabarti à moins de trois semaines des élections législatives américaines de mi-mandat, sur lesquelles planent des menaces d'interférences venues de l'étranger, notamment depuis la Russie.
"Au moment des élections, nous avons besoin que les gens détectent et suppriment (des contenus) le plus vite possible (...). Il faut que les décisions soient prises de façon rapide", poursuit-il, rappelant que 20.000 personnes sont désormais chargées de la sécurité des contenus dans l'ensemble du groupe.
"Si une anomalie est détectée (par les systèmes informatiques), un analyste de données va investiguer, voir s'il semble y avoir vraiment un problème", explique encore Samidh Chakrabarti. Si les contenus enfreignent de façon claire les règles de Facebook (discours de haine, informations trompeuses sur le déroulement du vote...), il est ôté directement.
Si ce contenu demande des vérifications factuelles, il peut être envoyé à des "partenaires" extérieurs : médias (dont l'AFP), universitaires...
Les salariés de la "War Room" s'entraînent aussi à des scénarios catastrophe, avec des afflux massifs de messages trompeurs le jour d'un scrutin majeur.
"Nous devons garder une longueur d'avance sur les acteurs malveillants (...) Nous réduisons continuellement la taille de la porte d'entrée, ils essayent en permanence d'entrer", résume M. Gleicher.
Tags: Facebook