Por Monika Bickert, vicepresidenta de Gestión de Política Global

Versión actualizada el 17 de Julio de 2018:

Luego de la transmisión del programa, queremos brindarles más información sobre un par de cuestiones importantes planteadas por Channel 4 News.

Verificación Cruzada

Queremos dejar en claro que eliminamos contenido de Facebook, sin importar quién lo publique, cuando viola nuestras Normas Comunitarias. No hay protecciones especiales para ningún grupo, ya sea de derecha o de izquierda. ‘Verificación cruzada’ – el sistema descrito en Dispatches – simplemente significa que algunos contenidos de ciertas Páginas o Perfiles reciben una segunda revisión para aseguranos que hemos aplicado nuestras políticas correctamente.

Esto, normalmente se aplica a las páginas o los contenidos de alto perfil que se visitan regularmente en Facebook para que no se eliminen por error contenidos de ellas y dejarlos en la plataforma. Muchas páginas de organizaciones de medios, desde Channel 4 hasta The BBC y The Verge, son verificadas de esta manera. También es posible que hagamos verificaciones cruzadas en reportes sobre contenido publicado por celebridades, gobiernos o páginas donde hemos cometido errores en el pasado. Por ejemplo, hemos aplicado la verificación cruzada a la cuenta de un activista de derechos civiles estadounidense para evitar borrar por error el contenido de él que crea conciencia sobre el discurso de odio que estaba enfrentando.

Para que quede claro, la comprobación cruzada de algo en Facebook no protege el perfil, la Página o el contenido que se eliminará. Simplemente se hace para asegurarnos de que nuestra decisión sea la correcta.

Gran Bretaña Primero fue una página de Verificación Cruzada. Pero el concepto de que se protegía el contenido está mal. De hecho, eliminamos Britain First de Facebook en marzo porque sus Páginas violaron reiteradamente nuestras Normas Comunitarias.

Menores

No permitimos que personas menores de 13 años tengan una cuenta de Facebook. Si alguien es reportado como menor de 13 años, el revisor mirará el contenido de su perfil (texto y fotos) para tratar de determinar su edad. Si se cree que la persona es menor de 13 años, la cuenta quedará en suspenso y la persona no podrá usar Facebook hasta que proporcione evidencia de su edad. Desde la emisión del programa, hemos estado trabajando en la actualización de la guía para que los revisores puedan suspender cualquier cuenta que encuentren si tienen una fuerte indicación de que es menor de edad, incluso si la cuenta fue reportada por otro motivo.

Publicación original del 16 de Julio de 2018:

Las personas alrededor del mundo usan Facebook para conectarse con amigos y familiares y compartir abiertamente diferentes ideas. Pero solo lo harán si se sienten seguras. Es por eso que tenemos reglas claras para determinar qué es aceptable y procesos establecidos para aplicarlas. Trabajamos intensamente en nuestras políticas y procesos, pero no siempre lo hacemos bien.

Esta semana, un informe de televisión en Channel 4 en el Reino Unido ha planteado preguntas importantes sobre esa área de Facebook, incluida la orientación brindada durante las sesiones de capacitación en Dublín. Está claro que parte de lo que salió en el programa no refleja las reglas y los valores de Facebook ni tampoco los altos estándares a los que aspiramos.

Tomamos este reporte muy seriamente y agradecemos a los periodistas que nos revelaron este problema. Hemos investigado lo que sucedió para evitar que pueda pasar de nuevo. Solicitamos de inmediato que todos los formadores en Dublín realicen una sesión de reentrenamiento y haremos lo mismo a nivel mundial. También revisamos las dudas planteadas por el reporte y corregimos los errores que encontramos.

Entregamos esa información al equipo de Channel 4, sin dejar de señalar nuestras disidencias con partes del reporte. Nuestro Vicepresidente de Políticas Públicas, Richard Allan, también respondió las preguntas de un periodista de la emisora en una entrevista televisada. Nuestra respuesta escrita y una transcripción de la entrevista se pueden encontrar en su totalidad aquí y aquí.

Fue sugerido que hacer la vista gorda frente al contenido inapropiado forma parte de nuestros intereses comerciales, pero eso no es verdad. Crear un entorno seguro donde personas de todo el mundo puedan compartir y conectarse es fundamental para el éxito a largo plazo de Facebook. Si nuestros servicios no son seguros, las personas no compartirán sus asuntos y con el tiempo dejarán de usarlos. Tampoco los anunciantes quieren que sus marcas estén asociadas con contenido perturbador o problemático.

Cómo creamos y hacemos cumplir nuestras políticas

Más de 1.400 millones de personas usan Facebook todos los días en todo el mundo. Publican en docenas de idiomas diferentes: desde fotografías y actualizaciones de su estado hasta videos en vivo. Decidir qué contenido se mantiene y qué contenido es limitado implica un juicio crítico sobre cuestiones complejas, que van desde la intimidación y el discurso de odio hasta el terrorismo y los crímenes de guerra. Es por eso que desarrollamos nuestros Estándares Comunitarios con aportes de especialistas externos, incluidos académicos, ONGs y abogados de todo el planeta. Organizamos tres foros de Facebook en Europa en mayo, donde pudimos escuchar a defensores de los derechos humanos y de la libertad de expresión, así como también a expertos en contraterrorismo y seguridad infantil.

Estos Estándares Comunitarios están disponibles públicamente desde hace mucho tiempo, y este año, por primera vez, publicamos detalladamente las pautas internas que usan nuestros equipos de revisión para hacerlos cumplir.
Para ayudarnos a administrar y revisar el contenido, trabajamos con varias compañías en todo el mundo, incluida CPL, la empresa que aparece en el programa. Esos equipos revisan los informes las 24 horas del día, los siete días de la semana, en todas las zonas horarias y en docenas de idiomas. Cuando es necesario, escalan las decisiones para especialistas de Facebook que tienen un profundo conocimiento del país. Para los tipos de contenido específicos y altamente problemáticos, como el abuso infantil, las decisiones finales las toman empleados de Facebook.

Revisar los informes de forma rápida y precisa es esencial para mantener a las personas segurasen la plataforma. Es por eso que este año duplicamos nuestros equipos de seguridad a 20.000 personas, incluyendo más de 7.500 revisores de contenido. También estamos invirtiendo fuertemente en nuevas tecnologías para ayudar a lidiar con el contenido más sesnsible de manera más efectiva. Por ejemplo, ahora usamos la tecnología para ayudar a direccionar los informes a los revisores que tengan la experiencia adecuada para ese asunto, evitar las duplicaciones y detectar y eliminar la propaganda terrorista y las imágenes de abuso sexual infantil, incluso antes de que se hayan reportado.

Estamos mejorando constantemente nuestros Estándares Comunitarios y hemos invertido significativamente en hacerlos cumplir de manera efectiva. Ésta es una tarea compleja y tenemos mucho trabajo por hacer. Pero nos comprometemos a hacerlo bien para que Facebook sea un lugar seguro para las personas y sus amigos.

Descargas:

Carta a Firecrest Films
Transcripción de la entrevista con Richard Allan, de Facebook