Deepfake en España: qué son y cómo detectarlos (con ejemplos)

5/5 - (2 votos)

¿Alguna vez has visto un vídeo que parece muy real pero que es difícil de creer?, ¿que puedes dudar del contenido que ves pero te cuesta creer que es mentira? Si esto te suena, es porque has visto un deepfake. Estos vídeos son tan realistas que se pueden convertir en un problema para la seguridad, pueden afectar la privacidad de las personas e incluso pueden hacer que caigas en una estafa. Para evitar esto, te explicamos qué son los deepfake en España y cómo puedes aprender a reconocer estos vídeos falsos.  

Deepfake: qué es

La inteligencia artificial (IA) avanza a pasos agigantados y cada vez es más difícil distinguir lo que es la realidad de lo que es mentira. El significado de deepfake literal en español es “falsedades profundas”, porque son vídeos o voces generadas por IA que imitan con alta precisión la apariencia y la voz de personas reales. Es decir, crean contenido falso que puede ser muy difícil de distinguir del contenido real, porque parecen auténticos. 

Como explica el Instituto Nacional de Seguridad (INCIBE), estos vídeos falsos son normalmente de personajes públicos que realizan acciones o comentarios que nunca ocurrieron en realidad. A través de programas de IA cada vez más especializados, modifican el rostro y la voz de determinada persona. De esta forma, se puede distorsionar la realidad a conveniencia de quien está haciendo las modificaciones. 

Tipos de deepfake

  • Deepfake de voz o deepvoice. En este caso, la IA imita la voz de una persona. Se alimenta de audios existentes para crear nuevos audios de voz que suenan increíblemente similares a los de la persona real. Con un vídeo en redes sociales o una llamada telefónica de ciberestafa, pueden tomar la información necesaria para duplicarla. No hace falta que digas una serie de palabras determinadas, la IA va a encargarse de duplicar el tono de voz y la forma de hablar. 
  • Deepfake de rostro o deepface. La IA busca sustituir el rostro de una persona en un vídeo por el de otra. Normalmente podemos ver estos vídeos que utilizan el rostro de celebridades conocidas para manipular o crear escenarios ficticios. En algunas ocasiones, incluso pueden generar un video completamente desde cero tomando el perfil de la persona, no solo cambiando su rostro. 

¿Cómo se crean los vídeos falsos?

Los deepkfake, también conocidos como fake vídeos, se generan utilizando una tecnología de inteligencia artificial avanzada conocida como redes neuronales generativas antagónicas (GAN, por sus siglas en inglés). Como explica la Escuela de Formación Profesional Superior (ESIC) estos modelos de IA son capaces de aprender de enormes conjuntos de datos visuales y auditivos para crear imágenes y sonidos que pueden ser indistinguibles de la realidad. 

El proceso de creación de un deepfake es relativamente sencillo, y es que en estos casos no hay intervención del ser humano, ya que todo lo hace la IA a través del deep learning (aprendizaje profundo). Primero se recoge la mayor cantidad de datos sobre la persona que se desea replicar (imágenes y vídeos). Cuanto mayor sea el conjunto de datos, más realista será el resultado final. Por eso es que normalmente los vídeos falsos están relacionados con figuras públicas, ya que solo necesitas una pequeña búsqueda en Internet para conseguir todo lo que necesitas

Después, la IA hace su trabajo a través de dos redes neuronales que, por un lado, generan imágenes, y por otro lado evalúan su autenticidad. Este proceso continúa hasta que la red que genera imágenes logra engañar a la red que hace la evaluación, produciendo resultados altamente realistas. 

En general, todo este proceso requiere de una maquinaria con procesadores gráficos avanzados. Pero a medida que avanza la IA, también avanzan las herramientas que permiten crear vídeos falsos sin necesidad de tener equipos costosos o de alto mantenimiento. 

¿Por qué los deepfake son un problema?

Los deepfake no son solo una muestra de lo que la tecnología puede hacer, sino que también se convierten en un riesgo para la privacidad de las personas. Aunque, en general, muchos de estos vídeos son de figuras públicas, también pueden imitar la voz o la apariencia de personas particulares, gracias a las imágenes o vídeos que se publican en las redes sociales. 

Imagina que alguien crea un vídeo falso en el que apareces haciendo o diciendo algo que nunca ocurrió. La IA no tiene límites a la hora de crear los escenarios más polémicos que se puedan imaginar. Por lo que, sin duda, las consecuencias no tienen límites. Puedes tener problemas personales porque las personas de tu entorno creen que actuaste de determinada manera, que puede ser juzgada. O tener problemas legales, porque los vídeos son tan realistas que es difícil determinar si son de verdad o no. Aunque posteriormente se demuestre que son falsos, muchas veces el daño ya está hecho y la reputación de la persona se ha dañado

Los deepvoice también pueden hacer que caigas en una estafa. Si logran replicar tu voz, los ciberdelincuentes pueden usarla para validar información sensible o aprobar cualquier transacción económica. Incluso pueden llamar a tus familiares y engañarlos para pedirles dinero o para que hagan determinadas acciones, por lo que es cada vez más importante reconocer las estafas online. Como explica INCIBE, estos casos pueden ocurrir incluso a nivel de empresa, suplantando la identidad de presidentes corporativos o CEO.   

Además de tener un posible perjuicio personal, en el contexto político o mediático estos vídeos falsos pueden utilizarse para desinformar, manipular, influir en la opinión pública o buscar dañar la reputación. 

¿Cómo detectar un deepfake?

A medida que estos vídeos falsos son cada vez más realistas, es necesario crear herramientas o encontrar técnicas eficaces para detectar las voces o vídeos generados por IA. Aunque muchas veces son increíblemente realistas, hay algunos detalles que el LISA Institute recomienda tener en cuenta para identificarlos.

Inconsistencias visuales 

Hemos visto suficientes películas y vídeos en general para saber cuándo un audio no corresponde con el movimiento de los labios. Estas pequeñas inconsistencias, especialmente en las transiciones o en los tonos emocionales complejos (rabia, alegría, etc.), pueden demostrar que es un vídeo falso. También puede haber fallas sutiles como incoherencias en el parpadeo o bordes del rostro mal definidos o borrosos

En muchos deepfakes solo se modifica el rostro, no el cuerpo completo. Por lo que debemos comprobar si las características del cuello y del cuerpo no coinciden con el rostro. Además, la IA suele tener problemas para replicar detalles como la lengua, los dientes, los labios o las manos, por lo que una anomalía en estas partes del cuerpo debe hacer sospechar. 

Comportamiento extraño

Los gestos o expresiones faciales no parecen naturales o comunes de su personalidad. También se debe tener en cuenta el contexto donde se produce el vídeo. Por ejemplo, un vídeo de una figura pública que hace declaraciones atípicas o en situaciones improbables. 

Duración del vídeo

Aunque no lo parezca, de momento, la IA tiene una limitación y es su duración. Debido a la dificultad y la complejidad de crear este contenido, muchos vídeos falsos suelen ser cortos. Por eso, un contenido sospechosamente corto en el que solo vemos los comentarios polémicos, por ejemplo, puede ser un signo para sospechar. 

Origen del vídeo

Algo que siempre debemos de verificar, no solamente en vídeos o audios, sino en toda la información que conseguimos en Internet, es la fuente de dicha información. ¿Este vídeo está en una fuente de información confiable?, ¿es un medio de comunicación con buena reputación o una página gubernamental? Los vídeos falsos muchas veces son tan reales que hasta los medios de comunicación se han equivocado al momento de validar ese contenido, así que es mejor cotejar la información en más lugares

Cómo se regula el deepfake en España

En España se busca regular el uso de vídeos para proteger los derechos y la privacidad de las personas. Si una persona usa deepfakes en España para dañar a otra, especialmente en situaciones delicadas como la difusión de imágenes íntimas sin consentimiento, la Agencia Española de Protección de Datos (AEPD) puede actuar para intentar detener la difusión de estos vídeos.

También se pueden tomar medidas en el ámbito penal, cuando el uso de deepfake en España implica la creación y difusión de contenido inapropiado o ilegal. Si una persona ha sido víctima de un vídeo falso y ha sufrido daños (pérdida de empleo, daño a la reputación, etc.), existe la opción de seguir un procedimiento civil para buscar compensaciones económicas

Deepfakes en ejemplos

En Internet podemos conseguir ejemplos de deepfake en España y en el mundo en general, especialmente en el caso de vídeos. Desde figuras públicas con discursos que nunca pronunciaron, hasta celebridades reemplazando el rostro de otros famosos en películas. En YouTube y en otras plataformas podemos ver las capacidades y los riesgos de esta tecnología. Por eso, es importante conocer cómo son estos vídeos para poder compararlos a la hora de encontrarnos con alguno en redes sociales o en Internet en general. 

Un ejemplo de deepfake en España que más impresionó fue el de Lola Flores.

Ahora ves lo difícil que puede ser reconocer un vídeo real de uno falso, porque en la actualidad el deepvoice también es cada vez más real. Por eso, cada vez que navegamos en Internet debemos tener consciencia de la información que consumimos y el contenido que encontramos, porque podemos encontrarnos con un vídeo de deepfake de España o de cualquier parte del mundo. 

Es importante verificar las fuentes de información y debemos dudar si vemos inconsistencias. Recuerda que, en un mundo que cada día se alimenta de lo que hay en Internet, es necesario cuidar la información personal que publicamos y compartimos online. En ABANCA somos conscientes de esto, por eso queremos que tu cuenta tenga todo lo necesario para protegerte de las ciberestafas. 

Recuerda que los contenidos de este blog tienen carácter informativo. Cualquier actuación motivada por su contenido o por la interpretación de las normas a las que hace referencia deberá ser analizada de forma específica teniendo en cuenta la situación particular de que se trate.

Logo Movil

Recibe nuestros contenidos más útiles

cada quince días en tu bandeja de entrada. Consigue además nuestra guía con ¡todo lo que debes saber para comprar tu primera vivienda!