Desde 2016, hemos utilizado una estrategia llamada “eliminar, reducir e informar” para gestionar el contenido problemático de Facebook. Esto implica eliminar el contenido que infringe nuestras normas comunitarias, reducir la propagación de contenido problemático que no infringe nuestras normas e informar a las personas con contexto adicional para que puedan elegir en qué hacer click, leer o compartir.

Nuestro trabajo de “reducir” en Facebook se centra en gran medida en el News Feed y en cómo clasificamos las entradas dentro de ellas. Cuando desarrollamos nuevas iniciativas de “reducir”, pensamos en nuestros objetivos en términos de las necesidades de tres partes: las personas, los editores y nuestra comunidad.

Responder a los comentarios directos de la gente

Siempre estamos escuchando los comentarios de la gente sobre lo que les gusta y no les gusta ver en Facebook y haciendo cambios en la sección del News Feed como respuesta.

  • Reduciendo el contenido más rechazado por las personas. La gente nos ha dicho que no les gusta el contenido no deseado (spammy), por lo que en los últimos años, hemos reducido el contenido de baja calidad como Click Bait, engagement bait, y las páginas web con poca sustancia y anuncios disruptivos. Continuaremos trabajando en esto en muchas formas – en algunos casos actuaremos directamente contra nuevos tipos de contenido que la gente nos notifique, tales como páginas web que tienen enlaces rotos, que se cargan lentamente o que son difíciles de usar. En otros casos, utilizaremos algunas señales, como por ejemplo la desproporcionalidad que exista entre el tráfico en Facebook de un dominio con relación a aquel que tiene el mismo dominio en el gráfico web. De esta forma, podemos detectar de mejor manera contenidos de baja calidad.
  • Creando experiencias más personalizadas. Estamos adoptando más medidas para asegurarnos que la gente vea lo que le parece más importante en el News Feed. Una de las formas en que entenderemos esto, es preguntando a algunas personas sobre si las publicaciones que ven les parece que valen la pena. Sus respuestas nos ayudarán a entender quién quiere ver más, menos, o contenido diferente. También, estamos facilitando a los usuarios la personalización de su News Feed ofreciéndole más formas de establecer sus preferencias.
  • Mostrando comentarios que generan valor agregado. La gente nos ha dicho que quiere tener mejores conversaciones en Facebook. El año pasado, trabajamos para reducir el bullying, la intimidación y los comentarios ofensivos en páginas públicas con el fin de que la gente se sintiera más cómoda interactuando con personas que no conoce. Este año, continuaremos con estos esfuerzos mientras exploramos otras formas de entender y promover comentarios más valiosos.
Incentivando a los editores para que inviertan en contenido de alta calidad

Estamos conscientes que el tener una amplia distribución en el News Feed influye en el contenido que los editores producen y, en última instancia, en lo que nuestra comunidad ve. En este sentido, queremos que las personas tengan acceso a material interesante y nuevo con el que puedan sentirse comprometidos y participar a largo plazo. Por ello, estamos trabajando en generar los incentivos correctos que fomenten la creación de este tipo de contenido.

  • Frenando la falta de originalidad. Algunos editores ganan mayor difusión publicando contenido que es reutilizado de otras fuentes sin agregar valor. Por ello, el pasado mes de octubre comenzamos a reducir la distribución de contenido no original. Además, continuamos tomando medidas en este sentido incluyendo su desmonetización en Instant Articles y reduciendo la distribución de contenido de video que es compilado y publicado por terceros.
  • Duplicamos las sanciones para los reincidentes. Cuando los editores publican repetidamente contenido que activa nuestras alertas, esperamos que éstos cambien su comportamiento. Si no lo hacen, implementamos medidas más estrictas durante un período de tiempo determinado para impulsar un cambio de comportamiento más rápido y exhaustivo. Seguiremos introduciendo sanciones para las personas “reincidentes” junto con nuevas medidas para animar a los editores a cumplir con nuestras normas.
Fomentando una comunidad segura

Existen algunos contenidos que la gente puede querer ver, y que no necesariamente generan malos incentivos para los editores, pero que hemos detectado como problemáticos para nuestra comunidad. Por esta razón, haremos que este contenido sea difícil de encontrar para aquellas personas que no están activamente tratando de verlo.

  • Reduciendo la propagación de información errónea. En los últimos años, nos hemos enfocado en combatir la desinformación a través de una combinación de tecnología y revisión humana. Este año, exploraremos nuevas formas de aprovechar a los expertos, y a nuestra comunidad de Facebook en la lucha contra las noticias falsas para poder ampliar la escala y la velocidad de nuestro trabajo. Nos concentramos especialmente en combatir la información errónea en áreas de alto riesgo como salud y finanzas.
  • Entendiendo el contenido que se encuentra en el límite: Algunos tipos de contenido, aunque no violan de manera literal nuestras Normas Comunitarias, son sensacionalistas o provocativos y bajan la calidad general del discurso en nuestra plataforma. Como dijimos en noviembre, estamos trabajando para entender  y definir este tipo de contenido.

En la medida que cumplamos con estos y otros proyectos, seguiremos confiando en nuestros valores fundamentales para mantener intacta la experiencia central en nuestro News Feed.

Para obtener más información sobre nuestro reciente trabajo enfocado en esta estrategia de eliminar, reducir, informar, vea este resumen de nuestro evento de abril de 2019