Escrito por Mike Schroepfer

Las bases de datos específicas y las estandarizaciones han sido algunas de las herramientas más efectivas para acelerar el progreso de la Inteligencia Artificial (IA). El renacimiento que experimenta actualmente el aprendizaje profundo fue impulsado por el estándar de ImageNet. Y los avances recientes en el procesamiento del lenguaje natural han mejorado gracias a los sistemas GLUE y SuperGLUE.

Las técnicas de “Deepfake”, que presentan videos realistas generados por IA de personas reales que hacen y dicen cosas ficticias, tienen implicaciones significativas para determinar la legitimidad de la información en línea. Sin embargo, la industria no cuenta con un gran base de datos o un sistema estandarizado para detectarlos. Queremos catalizar la investigación y el desarrollo en esta área y asegurarnos que haya mejores herramientas de código abierto para detectar deepfakes. Es por eso que Facebook, la Asociación de IA, Microsoft y académicos de Cornell Tech, MIT, Oxford, UC Berkeley, Universidad de Maryland, College Park, y la Universidad de Albany-SUNY se unen para construir el Reto de la Detección de Deepfakes (DFDC, por sus siglas en inglés).

Ese reto incluirá una base de datos y una clasificación, junto con financiación y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a través de la IA se utilicen para engañar a otros. La administración y supervisión de este reto,  estará a cargo un Comité de Dirección de AI sobre Integridad de Medios e Inteligencia Artificial, formado por una amplia coalición intersectorial de organizaciones que incluyen Facebook, WITNESS, Microsoft y sociedad civil, así como otras comunidades de tecnología, medios y academia.

Es importante contar con datos que estén disponibles gratuitamente para que la comunidad los use, con consentimiento explícito de las partes, y pocas restricciones de uso. Es por esto que Facebook está comisionando una base de datos específica, que sea realista, y que utilizará actores rentados para que contribuyan a este reto una vez que otorguen el consentimiento necesario. Ningún dato de usuarios de Facebook será utilizado en esta iniciativa. También estaremos financiando premios y colaboraciones de investigación por un más de 10 millones de dólares para fomentar una mayor participación en este proyecto de la industria.

Para garantizar la calidad de la base de datos a construir y establecer los parámetros del reto se realizará una sesión de trabajo técnico para ponerlos a prueba durante la Conferencia Internacional sobre Visión por Computadora (ICCV por sus siglas en inglés), en octubre. El lanzamiento completo de la base y del DFDC ocurrirá en la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS) prevista para diciembre. Facebook también participará en este reto. Sin embargo, no recibirá ningún tipo de retribución financiera.

Siga nuestro sitio web para ver actualizaciones periódicas.

Este es un problema en constante evolución, al igual que el spam y otros retos de la industria, y nuestra esperanza es que al ayudar a que la industria y la comunidad de inteligencia artificial se unan, podamos avanzar más rápido.

Hemos solicitado a especialistas externos que compartan su visión sobre este proyecto y sus respuestas están incluidas más adelante en el texto.

Apoyo académico

“Para pasar de la era de la información a la era del conocimiento, debemos hacer un mejor esfuerzo para distinguir lo real de lo falso, recompensar el contenido confiable sobre el no confiable y educar a la próxima generación en los esfuerzos de investigación de la industria / universidad / ONG para desarrollar y poner en funcionamiento tecnología que pueda distinguir de manera rápida y precisa lo real de lo falso”. – Hany Farid, profesor del departamento de Ingeniería Eléctrica y Ciencias de la Computación, UC Berkeley.

“La gente ha manipulado imágenes a lo largo de casi toda la historia de la fotografía. Pero ahora es posible que prácticamente cualquiera pueda crear y pasar falsificaciones para audiencias masivas. El objetivo de esta competencia es construir sistemas de IA que puedan detectar las pequeñas imperfecciones en un imagen manipulada y exponer su representación fraudulenta de la realidad”. – Antonio Torralba, profesor de ingeniería eléctrica y ciencias de la computación y director de MIT Quest for Intelligence

“Como vivimos en una era multimedia, poder contar con información de calidad es crucial para nuestras vidas. Dados los recientes desarrollos que permiten producir información manipulada a escala (texto, imágenes, videos y audio), necesitamos la participación total de la comunidad de investigación en un entorno abierto para desarrollar métodos y sistemas que puedan ayudar a detectar y mitigar los efectos nocivos de la manipulación de la multimedia. Al poner a disposición un gran conjunto de medios genuinos y manipulados, el reto permitirá entusiasmar a la comunidad investigadora a abordar colectivamente esta crisis en ciernes”. – Rama Chellappa, profesor de ingeniería Minta Martin, Universidad de Maryland

“Para impulsar cambios de manera efectiva y resolver problemas, creemos que es fundamental que la academia y la industria se unan en un entorno abierto y colaborativo. En Cornell Tech, nuestra investigación se centra en cerrar esa brecha y abordar el impacto social de la tecnología en la era digital, y el Reto de la Detección de Deepfakes es un ejemplo perfecto de esto. Trabajando con líderes de la industria tecnológica y académicos, estaremos desarrollando una fuente de datos integral que nos permitirá identificar medios falsos y, en última instancia, poder crear herramientas y soluciones para combatirlos. Nos enorgullece formar parte de este grupo y compartir la fuente de datos con el público, lo que permite que cualquiera pueda aprender y ampliar esta investigación”. – Serge Belongie, decano asociado y profesor de Cornell Tech.

“Los medios manipulados que están en internet para crear falsas teorías conspirativas y para manipular a las personas con objetivos políticos se está convirtiendo en un problema de relevancia global por tratarse de una amenaza fundamental para la democracia, y por lo tanto, para la libertad. Creo que necesitamos con urgencia contar con nuevas herramientas para detectar y caracterizar esta desinformación, de manera que estoy contento de ser parte de esta iniciativa que pretende movilizar a la comunidad de investigadores para alcanzar metas como preservar la verdad mientras ampliamos las fronteras de la ciencia”. Philip H. S. Torr, profesor del Departamento de Ciencias de la Ingeniería, Universidad de Oxford.

“Pese a que las deepfakes pueden parecer realistas, el hecho de que están generadas por un algoritmo y no por eventos reales captados por una cámara significa que pueden ser detectados y que su procedencia puede ser corroborada. Hay varios métodos promisorios en camino para identificar y mitigar los efectos nocivos de las deepfakes, incluyendo procedimientos para poner “huellas dactilares digitales” a los videos, que ayuden a verificar su autenticidad. Como todo problema complejo, requiere de un esfuerzo conjunto de la comunidad técnica, las agencias oficiales, los medios, las plataformas y de todos los usuarios online”. Siwei Lyu, profesor de Ingeniería y Ciencias Aplicadas, Universidad de Nueva York. 

“La tecnología para manipular imágenes está avanzando más rápido que nuestra capacidad de distinguir lo que es real y lo que no lo es. Un problema tan grande como este no lo resolverá una sola persona. Competencias abiertas como esta estimulan la innovación al enfocar el poder mental colectivo del mundo en una meta aparentemente imposible “. Phillip Isola, profesor asistente de Ingeniería Eléctrica e Informática, en Bonnie & Marty (1964) Tenenbaum CD, MIT.