Bots, trolls, campañas de influencia: todos los días parece que estamos luchando con más contenido falso o manipulado en línea. Debido a los avances en el poder de cómputo, algoritmos de aprendizaje de máquinas más inteligentes y conjuntos de datos más grandes, pronto compartiremos el espacio digital con una siniestra variedad de artículos noticiosos y podcasts, imágenes y videos deepfake (falsos) generados por inteligencia artificial, todo ello producido a una escala y velocidad inconcebibles. Un estudio arroja que al 2018 se habían detectado en línea menos de 10 mil deepfakes. Hoy, la cantidad de deepfakes en línea casi seguramente es de millones.
Difícilmente podemos imaginar todos los propósitos que la gente encontrará para este nuevo medio sintético, pero lo que ya hemos visto es motivo de preocupación. Los estudiantes pueden hacer que ChatGPT escriba sus ensayos. Los acosadores pueden crear videos pornográficos con imágenes de las personas con las que están obsesionados. Un delincuente puede sintetizar la voz de su jefe y decirle que le transfiera dinero.
Deepfakes corren el riesgo de que las personas vean toda la información como sospechosa.
Los deepfakes plantean no sólo riesgos criminales sino también amenazas para la seguridad nacional. Para avivar las divisiones en EU en el 2020, Rusia utilizó medios convencionales de propaganda, desplegando noticias falsas sobre vacunación e imágenes de destrucción reales, pero elegidas selectivamente, de las protestas de Black Lives Matter. La tecnología deepfake llevará estos esfuerzos a un nuevo nivel, permitiendo la creación de una realidad alternativa convincente. En el 2022, Rusia lanzó un crudo deepfake del Presidente ucraniano Volodymyr Zelensky llamando a los ucranianos a deponer las armas.
Imagine lo que se podría hacer a medida que la tecnología se vuelve más sofisticada. Los yihadistas que buscan movilizar reclutas podrían mostrar clips convincentes del Presidente francés Emmanuel Macron denigrando el Islam. Una invasión china de Taiwán podría comenzar con un deepfake de un comandante naval taiwanés diciendo a las fuerzas bajo su mando que permitan que los soldados chinos pasen sin oposición. Las tropas que luchan en una guerra podrían caer en desesperanza después de leer miles de publicaciones de Facebook divisivas o provocativas aparentemente de compañeros soldados, pero en realidad generadas por ChatGPT.
La escala, la velocidad y la verosimilitud de esta arma informativa de guerra amenazan con abrumar la capacidad de los militares y los servicios de inteligencia para protegerse contra ella.
Incluso los detectores de falsedades más ingeniosos tendrán sus límites, porque los avances en la detección seguramente se utilizarán para mejorar la próxima generación de algoritmos de deepfakes.
Las sociedades democráticas también necesitan comenzar a abordar los daños potenciales de los deepfakes, pero no podemos hacerlo de la misma manera que lo hace China. Necesitamos una respuesta que conserve el libre flujo de ideas y expresión, el intercambio de información que permita a los ciudadanos determinar qué es falso y qué es real. La desinformación es peligrosa precisamente porque socava la noción misma de verdad. Prohibiciones como la de Beijing caen en ese juego al hacer que el discernimiento de la verdad y la falsedad sea una prerrogativa del Gobierno, susceptible a la política y a la imposición bruta.
Las opciones para las democracias son complicadas y tendrán que combinar enfoques técnicos, regulatorios y sociales. Intel ya ha comenzado a trabajar en el aspecto técnico. En noviembre, los investigadores de la compañía propusieron un sistema llamado FakeCatcher que aseguraba una precisión del 96% en la identificación de deepfakes. Ese número es impresionante, pero dado el simple volumen de material sintético que se puede producir, incluso un detector con una precisión del 99% perdería un volumen inaceptable de desinformación. Además, los gobiernos contarán con los servicios de programadores altamente calificados, lo que significa que es probable que sus deepfakes estén entre los menos detectables.
Hay una solución que puede ayudar a los detectores a mantenerse un paso adelante de este ciclo y está relacionada con una técnica que las empresas de redes sociales ya están explorando. Los desarrolladores de tecnología de detección pueden enfocarse menos en el video o la imagen en sí que en cómo se utiliza mediante la creación de algoritmos que analizan los metadatos y el contexto. Las plataformas de redes sociales actualmente implementan este tipo de herramientas para detectar cuentas falsas utilizadas para lo que algunas plataformas llaman “campañas coordinadas de comportamiento no auténtico”, un término que cubre los esfuerzos de Irán, Rusia y otros actores maliciosos para sembrar desinformación o desacreditar a figuras públicas específicas.
El gobierno de EU y otras democracias no pueden decirle a su gente qué es verdad o qué no, pero pueden insistir en que las empresas que producen y distribuyen medios sintéticos a escala hagan que sus algoritmos sean más transparentes. El público debe saber cuáles son las políticas de una plataforma y cómo se aplican estas reglas.
Los deepfakes va a cambiar la forma en que muchas instituciones en las democracias hacen negocios. El Ejército necesitará sistemas muy seguros para verificar órdenes y asegurarse de que los sistemas automatizados no puedan ser activados por posibles deepfakes. Los periodistas y editores deberán desconfiar de las noticias impactantes, redoblando el estándar de verificar los hechos con múltiples fuentes.
En última instancia, es el público el que tendrá que distinguir las fuentes de información que funcionan de buena fe de las que están diseñadas para manipular.
Por la misma naturaleza de la democracia, ninguna política por sí sola puede sofocar de manera efectiva la proliferación de desinformación. Para hacer frente al problema, las sociedades libres necesitarán una combinación de esfuerzos. La clave es comenzar este proceso antes de que los deepfakes se filtren en nuestros ecosistemas de información y los abrumen. Una vez que lo hagan, la desconfianza y la confusión serán mucho más difíciles de contener.
- Byman, Meserole y Subrahmanian son coautores (con Chongyang Gao) de un nuevo reporte de investigación de la Institución Brookings, “Deepfakes and International Conflict”, del cual se adaptó este ensayo.