El mundo emergente de Deepfake
Deepfake es una palabra compuesta por "deep" de "deep learning", o aprendizaje profundo, y "fake", que significa falsificación. El aprendizaje profundo es un método avanzado de Inteligencia Artificial (IA) que utiliza múltiples capas de algoritmos de aprendizaje automático para extraer progresivamente características de nivel superior de una entrada sin procesar. Tiene la capacidad de aprender a partir de datos no estructurados, como el rostro humano. Por ejemplo, la IA puede recopilar datos sobre tus movimientos físicos.
Posteriormente, se pueden procesar estos datos para crear un vídeo Deepfake a través de una GAN (Red generativa antagónica). Se trata de otro tipo de sistema especializado de aprendizaje automático. Se emplean dos redes neuronales que compiten entre sí para el aprendizaje de las características de un conjunto de entrenamiento (por ejemplo, fotografías de caras) y la generación posterior de nuevos datos con las mismas características (nuevas "fotografías").
Dado que dicha red sigue probando las imágenes que crea en el conjunto de entrenamiento, las imágenes falsas se vuelven cada vez más convincentes. Esto hace que Deepfake sea una amenaza cada vez más seria. Además, las GAN pueden falsificar otros datos además de fotos y vídeo. De hecho, pueden emplearse las mismas técnicas de aprendizaje automático y síntesis para falsificar voces.
Ejemplos de Deepfake
No es difícil encontrar ejemplos de Deepfake de gran repercusión mediática. Un ejemplo de Deepfake es el vídeo publicado por el actor Jordan Peele en el que utilizó un metraje real de Barack Obama fusionado con su propia imitación de Obama para lanzar una advertencia contra los vídeos Deepfake. Después mostraba cómo eran las dos mitades del vídeo fusionado por separado. ¿Su consejo? Debemos cuestionar lo que vemos.
Vídeo del director ejecutivo de Facebook, Mark Zuckerberg, en el que supuestamente habla sobre de qué modo Facebook "controla el futuro" mediante datos de usuario robados, especialmente en Instagram. El vídeo original procede de una charla que dio sobre la interferencia rusa en las elecciones (apenas 21 segundos de ese discurso fueron suficientes para sintetizar el nuevo vídeo). Sin embargo, la suplantación de voz no era tan buena como la de Obama de Jordan Peele y se reveló la verdad.
Pero incluso las falsificaciones que no están tan bien realizadas pueden tener un impacto notable. Un vídeo de Nancy Pelosi "ebria" registró millones de visualizaciones en YouTube, pero no era más que una falsificación realizada mediante la ralentización de un vídeo de manera artificial para dar la impresión de que hablaba con dificultad. Además, muchas mujeres célebres se han visto "protagonizando" porno vengativo que se había realizado transformando sus caras en películas e imágenes pornográficas.
Amenazas de Deepfake: fraude y chantaje
Los vídeos Deepfake se han utilizado con fines políticos, y también como venganza personal. Sin embargo, se están utilizando cada vez más en tentativas serias de chantaje y fraude.
Al director ejecutivo de una firma energética británica le estafaron 243 000 $ mediante un Deepfake de voz del director de la empresa matriz solicitando una transferencia de fondos de emergencia. La falsificación fue tan convincente que no se le ocurrió comprobarlo; la transferencia de fondos no se realizó a la sede central, sino a la cuenta bancaria de un tercero. El director ejecutivo comenzó a sospechar cuando su "jefe" solicitó otra transferencia. En esta ocasión, sonaron las alarmas, pero era demasiado tarde para recuperar los fondos que ya había transferido.
En Francia, en un fraude reciente, no se utilizó la tecnología Deepfake, sino la suplantación, junto con una copia meticulosa de la oficina del Ministro de Asuntos Exteriores Jean-Yves le Drian y sus muebles, para defraudar millones de euros a altos ejecutivos. Se afirma que el estafador Gilbert Chikli se disfrazó de ministro para pedir a personas adineradas y ejecutivos de empresas que aportaran el dinero de un rescate para liberar a rehenes franceses en Siria; actualmente está siendo juzgado.
Los autores de Deepfake también puedan chantajear a presidentes de empresas amenazando con publicar un vídeo Deepfake que puede perjudicarles a menos que reciban un pago. Incluso algún intruso podría entrar en tu red simplemente sintetizando una videollamada de tu director de TI y engañar a los empleados para que proporcionen sus contraseñas y privilegios, lo que permitiría a los hackers campar a sus anchas por tus bases de datos confidenciales.
De hecho, ya se han utilizado vídeos pornográficos Deepfake para chantajear a periodistas y reporteras, como Rana Ayyub en la India, que denuncia los abusos de poder. A medida que la tecnología se vuelve menos costosa, cabe esperar que surjan nuevos usos de Deepfake para el chantaje y el fraude.
¿Cómo podemos protegernos frente a Deepfake?
La legislación ya está empezando a abordar las amenazas de los vídeos Deepfake. Por ejemplo, en el estado de California, mediante dos proyectos de ley aprobados el año pasado se ilegalizaron determinados aspectos de Deepfake: AB-602 prohibió el uso de la síntesis de la imagen humana para crear pornografía sin el consentimiento de las personas representadas; y AB-730 prohibió la manipulación de imágenes de candidatos políticos en un plazo de 60 días antes de unas elecciones.
Pero, ¿es suficiente? Afortunadamente, las empresas de ciberseguridad están desarrollando continuamente nuevos algoritmos de detección mejorados. Estos analizan la imagen de vídeo y muestran las pequeñas distorsiones que se crean en el proceso de "falsificación". Por ejemplo, los sintetizadores Deepfake actuales modelan una cara 2D y posteriormente la distorsionan para que se ajuste a la perspectiva 3D del vídeo; comprobar hacia dónde apunta la nariz es una señal reveladora clave.
Los vídeos Deepfake todavía se encuentran en una etapa en la que tú mismo puede detectar las señales. Para ello, debes buscar las siguientes características de los vídeos Deepfake:
- movimiento brusco
- cambios de iluminación de un fotograma al siguiente
- cambios en el tono de la piel
- parpadeo extraño o ausencia de parpadeo
- labios mal sincronizados con el habla
- artefactos digitales en la imagen
Pero a medida que mejoren los Deepfake, podrás detectarlos menos con tus propios ojos y más con un buen programa de ciberseguridad.
Tecnología antifalsificación de vanguardia
Algunas tecnologías emergentes están ayudando a los fabricantes de vídeo a autenticar sus vídeos. Se puede utilizar un algoritmo criptográfico para insertar valores hash a intervalos establecidos durante el vídeo; si el vídeo se modifica, cambiarán los valores hash. La IA y la cadena de bloques pueden registrar una huella digital a prueba de manipulaciones para vídeos. Es similar al uso de marcas de agua en los documentos; la dificultad con el vídeo es que los valores hash necesitan sobrevivir si se comprime el vídeo para utilizarlo con diferentes códecs.
Otra forma de repeler los intentos de Deepfake es utilizar un programa que inserte "artefactos" digitales especialmente diseñados en los vídeos para ocultar los patrones de píxeles que utiliza el software de detección facial. Estos ralentizan los algoritmos de Deepfake y generan resultados de mala calidad, lo cual reduce las posibilidades de que se produzca un Deepfake satisfactorio.
¿Son los procedimientos de seguridad óptimos la mejor protección?
Sin embargo, la tecnología no es la única manera de protegerse contra los vídeos Deepfake. Unos procedimientos de seguridad óptimos básicos son extraordinariamente eficaces a la hora de combatir el Deepfake.
Por ejemplo, disponer de controles automáticos integrados en cualquier proceso de desembolso de fondos podría haber evitado numerosos Deepfake y otros fraudes similares. También puedes:
- Asegurarte de que tanto empleados como familiares conocen cómo funciona Deepfake y los retos que puede plantear.
- Informarte y enseñar a otras personas a detectar un Deepfake.
- Asegurarte de hacer un buen uso de los medios de comunicación y de utilizar fuentes de información de buena calidad.
- Disponer de buenos protocolos básicos: "confiar pero verificar". Una actitud escéptica hacia el correo de voz y los vídeos no te garantizará que no puedas ser víctima de un engaño, pero puede ayudarte a evitar caer en muchas trampas.
Recuerda que si los hackers comienzan a desplegar Deepfake en sus intentos por acceder a redes domésticas y empresariales, las prácticas recomendadas en materia de ciberseguridad desempeñarán un papel vital a la hora de minimizar el riesgo:
- La creación de copias de seguridad periódicas protege tus datos frente a ransomware y te permite restaurar los datos dañados.
- El uso de contraseñas diferentes y seguras para varias cuentas significa que el hecho de que se haya vulnerado una red o un servicio no implica que otros se hayan puesto en peligro. En el caso de que alguien entrara en tu cuenta de Facebook, no querrás que acceda también a tus otras cuentas.
- Utiliza un buen paquete de seguridad, como Kaspersky Premium para proteger tu red doméstica, equipo portátil y smartphone frente a amenazas cibernéticas. Este paquete incluye software antivirus, una VPN para evitar ataques de hackers a tus conexiones Wi-Fi y protección para webcams.
¿Cuál es el futuro de Deepfake?
Deepfake sigue evolucionando. Hace dos años, era realmente sencillo identificar los vídeos Deepfake por la brusquedad del movimiento y el hecho de que la persona falsificada nunca parpadeaba. Pero la última generación de vídeos falsos ha evolucionado y se ha adaptado.
Se calcula que hay más de 15 000 vídeos Deepfake publicados en este momento. Algunos solo pretenden ser divertidos, pero otros intentan manipular tus opiniones. Sin embargo, ahora que solo se tarda uno o dos días en crear un nuevo Deepfake, esta cifra podría aumentar muy rápidamente.
Enlaces relacionados
Los principales ataques a celebridades y cómo pueden afectarte
Hackeo de la webcam:¿Puede espiarte tu webcam?
¿Qué implica el aumento de Deepfakes para el futuro de la ciberseguridad?