Por Samidh Chakrabarti, Director de Producto y Participación Cívica

En los últimos dos años, hemos progresado en la prevención de la interferencia electoral en Facebook. Pero a medida que nuestros equipos se volvieron más inteligentes, también lo hicieron los adversarios que buscan abusar de nuestros servicios. Es por eso que, en septiembre, previo a las elecciones en Brasil y en Estados Unidos, pusimos en funcionamiento nuestro War Room, en Menlo Park, California. Buscamos reunir a los especialistas en temas electorales de toda la compañía en un solo lugar, para que puedan abordar los potenciales problemas que identifica nuestra tecnología en tiempo real y dar una respuesta rápida.

En el War Room trabajan más de dos docenas de expertos, incluyendo ingenieros, analistas de datos, equipos de inteligencia cibernética, investigadores y abogados, entre otros. Ese grupo representa y es apuntalado por las más de 20,000 personas que trabajan en el área de seguridad de Facebook. Estando todos en el mismo lugar, los equipos pueden tomar decisiones más rápidamente y reaccionar ante cualquier amenaza identificada por nuestros sistemas para mitigar la propagación de contenido potencialmente dañino. Nuestros tableros de control analizan en tiempo real temas sensibles a las elecciones, como los mensajes que pretendan evitar que las personas voten, incrementos de spam, posibles interferencias extranjeras o contenido que viole nuestras políticas. El War Room también supervisa la cobertura de noticias y la actividad relacionada con las elecciones en otras redes sociales y medios tradicionales. Esos trabajos nos permiten tener una visión general y ayudan a rastrear qué tipo de contenido puede volverse viral. Para prepararse, nuestro equipo también realizó una extensa planificación de escenarios y posibles amenazas, desde el acoso hasta la supresión de votantes, y desarrolló sistemas y procedimientos con anticipación para responder de manera efectiva.

Esa planificación ayudó mucho durante la primera ronda de las elecciones presidenciales de Brasil. Por ejemplo, nuestra tecnología detectó un post falso que afirmaba que el Día de las Elecciones en Brasil había pasado del 7 al 8 de octubre debido a protestas. El mensaje, que era incorrecto, comenzó a volverse viral. Rápidamente lo detectamos, determinamos que violaba nuestras políticas y lo eliminamos en menos de una hora. Y en las siguientes dos horas hicimos lo propio con otras versiones de la misma noticia falsa.

Otro caso ocurrió después de los resultados de la votación, cuando nuestros sistemas detectaron un aumento en el discurso de odio. La investigación identificó contenidos que incitaban al odio y que parecían estar diseñados para estimular la violencia contra las personas del nordeste de Brasil. Eliminamos esas publicaciones dos horas después de que nuestra tecnología enviara la primer alerta a la War Room.

El trabajo que estamos haciendo en el War Room se basa en casi dos años de trabajo arduo y en significativas inversiones, tanto en personas como en tecnología, para mejorar la seguridad en Facebook, incluso durante las elecciones. Nuestra tecnología de aprendizaje automático e inteligencia artificial ahora es capaz de bloquear o deshabilitar cuentas falsas de manera más efectiva, atacando la principal causa de varios problemas. Aumentamos la transparencia y la responsabilidad en nuestra publicidad y seguimos avanzando en la lucha contra las noticias falsas y la desinformación.
Dicho esto, la seguridad sigue siendo una carrera contra nuestros adversarios y anticiparnos a sus acciones demandará una mejora continua. Estamos comprometidos a enfrentar ese desafío.