Por Guy Rosen, VP de Integridad y Tessa Lyons, Directora de Integridad para News Feed

Desde 2016, hemos venido utilizando una estrategia llamada “eliminar, reducir e informar” con el fin de gestionar contenido problemático en toda la familia de aplicaciones de Facebook. Esto incluye eliminar aquel contenido que viola nuestras políticas; reducir la distribución de contenido problemático que no infringe nuestras normas, e informar a las personas proporcionando un contexto adicional para que puedan elegir a qué dar click, leer o compartir.     

ELIMINAR (Leer más)

  • Implementamos una nueva sección en el sitio de Normas Comunitarias de Facebook, donde las personas podrán monitorear las actualizaciones que realizamos cada mes. Esta sección estará disponible a partir de hoy, en inglés. 
  • Actualizamos la política de cumplimiento para los Grupos de Facebook y presentamos una nueva función llamada Calidad de Grupos. Se implementará en las próximas semanas a nivel global

REDUCIR (Leer más)

  • Iniciamos un proceso de colaboración con expertos externos para encontrar nuevas formas de combatir de manera más rápida la mayor cantidad de noticias falsas posibles en Facebook. Empezando a partir de hoy, a nivel global.
  • Associated Press ahora también revisará contenido en español, como parte de nuestro programa de verificación. Disponible partir de hoy, en los Estados Unidos. 
  • Reducimos el alcance de aquellos Grupos de Facebook que comparten información errónea con frecuencia. Disponible a partir de hoy, a nivel global. 
  • Incorporamos una señal denominada “Click-Gap dentro del ranking del News Feed para reducir la visibilidad de contenido de baja calidad. Disponible a partir de hoy, a nivel global. 

INFORMAR (Lee más)

  • Añadimos un indicador de confianza en el botón de contexto del News Feed. Disponible desde de marzo 2019, para contenido en inglés y español. 
  • Agregamos más información a la pestaña de Calidad de la Página en Facebook. Estará disponible próximamente, a nivel global. 
  • Permitimos que las personas eliminen sus publicaciones y comentarios de Grupos de Facebook, aún después de que ya han abandonado dichos grupos. Disponible a partir de hoy, a nivel global. Lee más.
  • Combatimos la suplantación de identidad al incorporar la insignia de verificación de Facebook a Messenger. Disponible a partir de esta semana, a nivel global.
  • Lanzamos una herramienta de configuración de mensajes y una herramienta de actualizada de bloqueo en Messenger para mayor control. Disponible a partir de esta semana, a nivel global. Lee más.
  • Introducimos un indicador de reenvíos y un botón de contexto en Messenger para ayudar a las personas a estar mejor informadas. Comenzó este año, a nivel global.

Facebook

Tenemos Normas Comunitarias que resumen lo que está permitido y lo que no está permitido en Facebook. Estas políticas incluyen temas relacionados con bullying, intimidación, acoso y discurso de odio. Nos encargamos de eliminar el contenido que va en contra de nuestras normas tan pronto nos damos cuenta. El año pasado publicamos nuestros lineamientos de aplicación de normas con el objetivo de facilitar el entendimiento de por qué eliminamos un determinado contenido y también implementamos un sistema para apelar nuestras decisiones  en publicaciones individuales.

Las Normas Comunitarias aplican para todas las partes de Facebook. Sin embargo, cada área plantea diferentes desafíos. Por ejemplo, durante los dos últimos años, hemos estado trabajado en algo que llamamos la Iniciativa de Comunidades Seguras, con la misión de proteger a las personas de grupos nocivos. Al utilizar una combinación de nuevas tecnologías, revisión humana y reportes de usuarios, podemos identificar y eliminar grupos nocivos, así sean públicos, cerrados o secretos. Ahora nos es posible detectar, de manera proactiva, diversos tipos de contenido violatorio de nuestras normas antes de que alguien los reporte, e incluso antes de que las personas puedan verlos.

De manera similar, Stories presenta su propio conjunto de retos en la aplicación de las normas, tanto para eliminar, como para reducir la propagación de contenido problemático. Lo efímero del formato requiere que trabajemos aún más rápido para eliminar el contenido violatorio. Las herramientas creativas que permiten a las personas agregar texto, stickers y dibujos a fotografías y videos pueden ser abusadas y utilizadas para enmascarar contenido que viola nuestras normas. Además, debido a que a las personas les gusta hilar diversas historias, debemos tener una visión holística de Stories. Si evaluamos historias individuales de forma aislada, corremos el riesgo de pasar por alto violaciones a las normas.

Además de describir este contexto e historia, hoy discutimos cómo:

  • Implementaremos una nueva sección en el sitio de Normas comunitarias, donde las personas podrán monitorear las actualizaciones que hacemos mensualmente. Revisamos las políticas existentes y redactamos políticas nuevas por varias razones, incluyendo, mejorar nuestra precisión de ejecución, o anticiparnos a nuevas tendencias identificadas por revisores de contenido, discusiones internas, retroalimentación de expertos o participación externa. En esta nueva sección estaremos monitoreando todos los cambios a las políticas y compartiremos detalles acerca de por qué realizamos los más significativos. Disponible a partir de hoy, en inglés.
  • Actualizaremos la política de aplicación de normas para grupos y presentaremos una nueva herramienta de Calidad de Grupos. Como parte de la Iniciativa Comunidades Seguras, vamos a responsabilizar más a los administradores de los grupos de Facebook por las violaciones a las normas comunitarias. Para empezar, en las próximas semanas, cuando revisemos un grupo para decidir si lo bajamos o no, revisaremos las violaciones de contenido cometidas por administradores y moderadores en ese grupo, incluyendo publicaciones de miembros que hayan aprobado, como una señal más fuerte de que el grupo viola nuestras normas. También, estamos presentando una nueva herramienta denominada Calidad de Grupos, que ofrece un resumen del contenido eliminado y señalado por violaciones, así como una sección de noticias falsas identificadas dentro del grupo. El objetivo es dar a los administradores una idea de cómo y cuándo aplicamos nuestras normas comunitarias. Disponible a partir de las próximas semanas, a nivel global.

Para más información sobre el trabajo de eliminación de Facebook, ve estos videos de las personas y procesos [liga a la publicación al interior del Feed con video] detrás del desarrollo de nuestras Normas comunitarias.

Facebook

Existen tipos de contenidos que son problemáticos pero que no cumplen con los criterios para ser eliminados de acuerdo con nuestras Normas comunitarias, tales como información errónea y clickbait. A menudo las personas nos hacen saber que no les gusta ver este tipo de contenido y, aunque permitamos que se publique en Facebook, queremos asegurarnos que no se distribuya ampliamente.

A lo largo de los dos últimos años, nos hemos enfocado en reducir la desinformación en Facebook. Hemos mejorado en la aplicación de nuestras normas contra las cuentas falsas y el comportamiento falso coordinado; estamos utilizando tanto tecnología como personas para combatir el aumento en la desinformación basada en fotos y videos; hemos implementado nuevas medidas para ayudar a identificar noticias faltas y acceder a un mayor contexto sobre las historias que ven en la Sección de noticias; y hemos aumentado nuestro programa de verificación externa, que ahora tiene 47 organizaciones certificadas que revisan contenido en 23 idiomas.

Un panorama sobre el News Feed de Facebook:

  • Iniciamos un proceso colaborativo con expertos externos para encontrar nuevas formas de combatir noticias falsas, de manera rápida. Los verificadores profesionales con los que estamos asociados son una pieza muy importante en nuestra estrategia en contra de la desinformación. Sin embargo, enfrentan retos a gran escala: No existen suficientes verificadores a nivel mundial y, como en toda buena práctica periodística, el chequeo de datos insume tiempo. Una idea alentadora para reformar su trabajo, que venimos explorando desde 2017, consiste en que grupos de usuarios de Facebook indiquen fuentes periodísticas para corroborar o contradecir afirmaciones incluidas en contenido potencialmente falso. A lo largo de los siguientes meses, estaremos construyendo sobre este punto y seguiremos consultando a una amplia gama de académicos, expertos en verificación, periodistas, encuestadores y organizaciones de la sociedad civil para comprender los beneficios y riesgos de estas ideas. Necesitamos encontrar soluciones que avalen los reportes originales, promuevan información confiable, complementen nuestros programas de verificación de datos existentes y permitan que las personas se expresen libremente. Todo, sin convertir a Facebook en un árbitro de la verdad. Cualquier sistema que implementemos debe tener salvaguardas que eviten las manipulaciones, la introducción de sesgos personales y protejan a las minorías. Compartiremos las actualizaciones públicamente a lo largo del proceso y solicitaremos comentarios de grupos más amplios de personas en todo el mundo. Disponible a partir de hoy, a nivel global.
  • Expandimos la función de The Associated Press como parte de nuestro programa de verificación de terceros. AP expandirá sus esfuerzos en contra del contenido falso y engañoso, tanto en video, como en los textos en español en Estados Unidos. Disponible a partir de hoy. Lee más.
  • Reducción del alcance de los Grupos que reiteradamente comparten información errónea. Cuando las personas en un grupo comparten de forma repetitiva contenido que ha sido catalogado como falso por verificadores de datos independientes, disminuiremos la distribución general de noticias de ese grupo. Disponible partir de hoy, a nivel global.
  • Incorporamos una señal denominada “Click-Gap” dentro del ranking de la Sección de Noticias. El ranking utiliza muchas señales para garantizar que las personas vean menos contenido de baja calidad en sus noticias. Esta nueva señal, Click-Gap, se basa en el gráfico web, un “mapa” conceptual de internet en el que los dominios con muchos enlaces entrantes y salientes están en el centro del gráfico y los dominios con menos enlaces entrantes y salientes están en los bordes. Click-Gap busca dominios con un número desproporcionado de clics provenientes de Facebook en comparación con su lugar en el gráfico web. Esto puede ser una señal de que el dominio está teniendo éxito en la Sección de noticias en una forma en la que no refleja la confianza que han creado fuera de él y está produciendo contenido de baja calidad. Disponible a partir de hoy, a nivel global.

Para obtener más información sobre cómo establecemos los objetivos de nuestra iniciativa de “reducción” en Facebook, lea esta publicación del blog.

Instagram

Discutimos acerca de Instagram y de cómo trabaja para asegurar que el contenido que recomendamos a las personas sea seguro y apropiado para la comunidad. Hemos empezado a reducir la propagación de contenido que, si bien no incumple los Lineamientos de la Comunidad de Instagram, es inapropiado. Por ejemplo, una publicación sexualmente sugestiva continuará apareciendo en la sección de noticias si tú sigues a la cuenta que realiza las publicaciones, pero este tipo de contenido no aparecerá para la comunidad en las Páginas de Explorar o Hashtag.  

Facebook

Estamos invirtiendo en funciones y productos que den a las personas más información para ayudarlos a decidir qué leer, en qué confiar y qué compartir. El año pasado, comenzamos a ofrecer más información sobre artículos en la sección de noticias, con el botón de contexto, que mostraba la entrada de Wikipedia, el tiempo de existencia del portal (un indicador útil para la credibilidad), así como dónde y con qué frecuencia había sido compartido su contenido. Ayudamos a los propietarios de Páginas a mejorar su contenido con la pestaña de Calidad de Páginas, la cual les muestra cuál de sus publicaciones fue eliminada por violar las Normas Comunitarias estaban catalogadas como “Falsas”,“Mixtas” o “Título falso” por verificadores de información.

  • Indicadores de confianza al botón de contexto. Los Indicadores de Confianza son declaraciones estandarizadas, creadas por un consorcio de organizaciones conocidas como El Proyecto de Confianza, que aporta antecedentes sobre la ética de una organización de noticias y otros estándares de imparcialidad y precisión, los antecedentes de un periodista y el trabajo detrás de una noticia. Los indicadores que mostramos en el botón de contexto cubren las prácticas de verificación de hechos, declaraciones de ética, correcciones, propiedad y financiamiento de la publicación y el equipo editorial. Comenzó en marzo de 2019, en contenido en inglés y en español.
  • Pestaña de Información y Anuncios. Agregaremos información durante los próximos meses sobre el estado de la Página respecto a contenido caza clics. Estará disponible próximamente a nivel global.
  • Eliminación de publicaciones y comentarios en un Grupo. Las personas tendrán esta posibilidad, incluso aunque ya no sean miembros del Grupo. Con esta actualización, nuestro objetivo es brindar mayor transparencia y control personal a los Grupos. Estará disponible próximamente a nivel global.
Messenger

Características nuevas y actualizadas de privacidad y seguridad que proporcionan a las personas mayor control de su experiencia y las ayudan a mantenerse informadas.

  • Combatimos la suplantación al traer la insignia verificada de Facebook a Messenger. Esta herramienta ayudará evitar que estafadores pretendan hacerse pasar por personas de alto perfil, sin contar con un indicador visible de cuenta verificada. Messenger continúa fomentando el uso de la herramienta de reporte de suplantación, presentada el año pasado, cuando alguien cree que está interactuando con una persona que está haciéndose pasar por otra. A partir de hoy, a nivel global.
  • Lanzamos configuraciones para mensajería y una función de bloqueo actualizado para ofrecer mayor control. La configuración de mensajería te permite controlar que personas con las que no estás conectado -como amigos de tus amigos, personas que tengan tu número de teléfono o que te sigan en Instagram- puedan acceder a tu Messenger a través de listas de chats. A partir de esta semana, a nivel global.
  • Introducimos un indicador de reenvío y un botón de contexto para ayudar a prevenir la propagación de información engañosa. Este indicador permite a alguien saber si el mensaje que recibió fue reenviado por el remitente, mientras que el botón de contexto proporciona más información sobre los artículos compartidos. Comenzó a principios de este año, a nivel global.