Por Tom Alison, Vicepresidente de Ingeniería

Los Grupos privados pueden ser lugares importantes para que las personas se reúnan y compartan en torno a una variedad de temas personales, por ejemplo, identificarse como miembro de la comunidad LGBTQ o hablar sobre los desafíos relacionados con una enfermedad extraña.

Sin embargo, el hecho de pertenecer a un Grupo privado no significa que tus acciones no se deban controlar. Tenemos la responsabilidad de que Facebook siga siendo seguro, por lo que las Normas Comunitarias se aplican en toda la plataforma, incluidos los Grupos privados. Para hacer cumplir estas políticas, usamos una combinación de personas y tecnología, es decir, revisores de contenido y detección proactiva. Durante los últimos años, realizamos importantes inversiones en ambos, por ejemplo, mediante la contratación de más de 30,000 personas en los equipos de protección y seguridad. 

En este contexto, un equipo especializado trabajó en la iniciativa de comunidades seguras que se creó hace dos años con el objetivo de proteger contra daños a las personas que usan los Grupos de Facebook. Este equipo está compuesto por administradores de productos, ingenieros, expertos en aprendizaje automático y revisores de contenido, y su función es anticipar las posibles formas en que las personas pueden causar daños en los Grupos y desarrollar soluciones para minimizarlos y evitarlos. Como responsable de los Grupos de Facebook, quiero explicar cómo haremos que los grupos privados sean más seguros centrándonos en tres aspectos principales: detección proactiva, herramientas para administradores y transparencia, y control para miembros.

Uso de la detección proactiva para moderar Grupos

Una de las principales formas en que mantenemos seguras a las personas es mediante la identificación y eliminación proactiva de publicaciones y Grupos que infrinjan las normas. La iniciativa de comunidades seguras se centra principalmente en este aspecto y se aplica en los Grupos privados y públicos.

Cada vez más es más frecuente que podamos usar inteligencia artificial y aprendizaje automático para detectar de forma proactiva el contenido inapropiado antes de que alguien lo reporte y, en algunos casos, antes de que las personas lo vean. A medida que nuestros sistemas detectan publicaciones o las personas lo reportan, nuestros revisores capacitados toman en consideración el contexto y determinan si infringe las Normas Comunitarias. Luego, usamos estos ejemplos para alimentar nuestra tecnología a fin de optimizar el descubrimiento y la eliminación de contenido similar. De la misma forma en que usamos anteriormente la detección proactiva en grupos públicos, cerrados y secretos, este proceso se seguirá aplicando en todos los grupos privados y públicos según el nuevo modelo de privacidad simplificado.  

Hay matices al decidir si todo un Grupo seguirá funcionando o se eliminará. Si una publicación individual infringe las Normas comunitarias, se elimina. Sin embargo, con decenas, cientos o, en algunos casos, miles de miembros y publicaciones diferentes, ¿en qué punto Facebook debería considerar inaceptable un Grupo?

Un factor de peso que analizamos es el tema: ¿el nombre o la descripción del Grupo incluye lenguaje que incita al odio u otro contenido prohibido? Otro factor importante es la acción de los administradores y moderadores, ya que ellos establecen el tono del grupo. En abril, actualizamos la política para analizar más de cerca el comportamiento de administradores y moderadores. Si los líderes del Grupo suelen infringir las normas o si habitualmente aprueban publicaciones de otros miembros que lo hacen, se trata de faltas claras contra el Grupo en general. Asimismo, si un miembro del Grupo infringe las normas de forma reiterada, empezaremos a solicitar a los administradores que revisen sus publicaciones antes de que alguien más pueda verlas. Por lo tanto, si un administrador aprueba una publicación que infringe las normas, se contará como una falta contra todo el grupo. Estos y otros factores nos permiten determinar si el grupo se debe eliminar. Si el Grupo no cruza esta línea, seguirá funcionando, pero continuaremos eliminando las publicaciones individuales que infrinjan las Normas comunitarias.

Herramientas para administradores

Los administradores son quienes mejor conocen a su comunidad, así que queremos ofrecerles herramientas que les permitan dirigir grupos significativos. Por este motivo, creamos la función de calidad del grupo, que proporciona a los administradores información general acerca del contenido que Facebook eliminó y marcó para la mayoría de las infracciones a las Normas comunitarias. También agregamos una sección sobre noticias falsas que se encuentren en el grupo. Estas herramientas brindan a los administradores más claridad sobre cómo aplicamos las políticas en sus grupos y en qué momento lo hacemos, así como mayor visibilidad sobre lo que sucede en su comunidad. Además, esto significa que son más responsables por lo que sucede bajo su supervisión. 

Para que los administradores puedan establecer normas positivas del grupo, agregamos una sección para las reglas, de modo que puedan ser claros sobre lo que se permite o no en el grupo. Los administradores y moderadores también tienen la opción de compartir qué regla infringió un miembro al rechazar una publicación pendiente, eliminar un comentario o silenciar a un miembro. 

Transparencia y control para miembros

También estamos comprometidos a dar a los miembros del grupo más transparencia y control. Cuando alguien se une a un grupo, debería saber de qué tipo de comunidad formará parte. Por esto, antes de unirse al grupo, permitimos que las personas vean detalles relevantes sobre él, por ejemplo, quiénes son los administradores y moderadores, y si el grupo tuvo otros nombres anteriormente. Además, puedes obtener una vista previa del grupo al que se te invitó y tienes la opción de aceptar o rechazar la invitación.

Mediante la iniciativa de comunidades seguras, seguiremos garantizando que los grupos de Facebook sean lugares de apoyo y conexión, en lugar de odio o daño. Siempre queda más por hacer, así que seguiremos mejorando nuestras tecnologías, herramientas y políticas para ayudar a mantener seguras a las personas.