Por Monika Bickert, directora global de Políticas de Contenido de Facebook

El mes pasado las personas compartieron en Facebook videos horribles de niños sirios tras un ataque con armas químicas. Los videos, que aparecieron también en el resto de la internet, mostraban a niños temblando, con dificultades para respirar y eventualmente muriendo.

Las imágenes eran profundamente impactantes, tanto que colocamos una advertencia previa a su reproducción. Sin embargo, esas imágenes también provocaron indignación internacional y renovaron la atención en la difícil situación en Siria.

Revisar el material disponible en internet a escala mundial es un desafío y es esencial. Y como la persona a cargo de ese trabajo en Facebook, quiero explicar cómo y dónde trazamos los límites.

En un día normal, más de 1.000 millones de personas utilizan Facebook. Esas personas comparten publicaciones en decenas de idiomas sobre diferentes temas y formatos, desde fotos hasta videos en vivo. Sólo un porcentaje muy pequeño es reportado para que lo investiguemos. El abanico de temas es amplio -desde bullying y discurso de odio hasta terrorismo- y complejo. Diseñar políticas que mantengan a las personas seguras y al mismo tiempo les permitan compartir libremente implica comprender problemas sociales emergentes y la forma en que se manifiestan en la internet. E implica también ser capaces de responder rápidamente a millones de informes semanales de personas de todo el mundo.

Para nuestros moderadores, existe también otro obstáculo: entender el contexto. Es difícil juzgar la intención detrás de una publicación o el riesgo implícito en otra. Si alguien publica un video gráfico de un ataque terrorista: ¿inspirará a otros a emular la violencia o a hablar en contra de ella? Si alguien publica una broma sobre el suicidio: ¿se trata apenas de una broma o eso es un grito de auxilio?

En el Reino Unido criticar la monarquía puede ser aceptable. Pero en otras partes del mundo puede acarrear una sentencia de cárcel. Las leyes pueden ofrecer orientación, pero a menudo lo aceptable tiene más que ver con normas y expectativas. Y las nuevas maneras de contar historias y compartir imágenes pueden colocar esas tensiones en primer plano más rápido que nunca.

Nuestro objetivo es mantener nuestro sitio seguro. No siempre compartimos los detalles de nuestras políticas, porque no queremos estimular a la gente a encontrar formas de sortearlas, pero publicamos nuestras Normas Comunitarias, que establecen lo que está permitido y lo que no está permitido en Facebook y por qué.

Nuestras normas cambian con el tiempo. Estamos en constante diálogo con expertos y organizaciones locales respecto a temas que van desde seguridad infantil hasta el terrorismo y los derechos humanos. A veces, esto implica que nuestras políticas puedan parecer contra intuitivas. Como reportó el diario británico the Guardian, los expertos en auto lesión nos aconsejaron que puede ser mejor permitir videos en vivo de auto lesiones para que otras personas puedan ser alertadas y puedan ayudar, pero luego darlos de baja para evitar que otros los copien. Cuando una chica en el estado de Georgia, Estados Unidos, intentó suicidarse en Facebook Live hace dos semanas, sus amigos pudieron notificar a la policía, que logró llegar a tiempo.

Nos esforzamos por mantener la objetividad. Los casos que revisamos no son fáciles: a menudo están en una zona gris donde la gente no está de acuerdo. El arte y la pornografía no siempre son fáciles de distinguir, pero hemos descubierto que las imágenes de desnudos generadas digitalmente tienen más probabilidades de ser pornográficas que las hechas a mano, por lo que nuestra política refleja eso.

Existe una gran diferencia entre las expresiones generales de enojo y las incitaciones específicas para lastimar a una persona, razón por la cual permitimos lo primero pero no lo segundo.

Esas tensiones entre concientizar sobre la violencia y promoverla, entre la libre expresión y la liberación del miedo, entre ser testigos de un acontecimiento y ser espectadores son complejas y rara vez hay normas legales universales para arrojar claridad. Ser lo más objetivo posible es la única manera de ser consistentes en todo el mundo. Pero aún así a veces nos equivocamos.

Las situaciones hipotéticas que utilizamos para entrenar a los moderadores son intencionalmente extremas. Están diseñadas para ayudar a las personas que hacen ese trabajo a lidiar con los casos más difíciles. Cuando creamos nuestros estándares de contenido hace casi una década, muchas cosas quedaron a discreción de los empleados. Pero como no hay dos personas con criterios idénticos sobre el discurso de odio o el bullying -por mencionar apenas algunas problemáticas- hoy incluimos definiciones claras.

Somos criticados por personas que quieren más censura y personas que quieren menos. Y lo consideramos una señal útil de que no estamos inclinándonos demasiado en un sentido ni en el otro.

Espero que los lectores puedan comprender que tomamos nuestro papel con mucha seriedad. Para muchos de nosotros en el equipo de Facebook, la seguridad es una pasión que precede a nuestro trabajo en la empresa: Yo pasé más de una década como fiscal criminal investigando delitos desde explotación sexual infantil hasta terrorismo. Nuestro equipo también incluye a un experto contra el extremismo en el Reino Unido, un ex director de investigación del Centro de Combate al Terrorismo de West Point, una experta en asistencia a víctimas de violaciones y una profesora.

Todos sabemos que podemos hacer más. El mes pasado anunciamos la contratación de 3.000 moderadores adicionales. Es un trabajo exigente y seguiremos haciendo más para asegurar que estamos ofreciéndoles el apoyo adecuado, facilitando la rápida toma de decisiones difíciles y proporcionando el apoyo psicológico que necesitan.

La tecnología ha dado más poder a más personas para comunicarse de manera más amplia que nunca. Creemos que los beneficios de compartir superan ampliamente los riesgos. Pero reconocemos también que la sociedad está todavía determinando lo que es aceptable y lo que es dañino, y que nosotros, en Facebook, podemos jugar un papel importante en esa conversación.