'Deepfake': las aplicaciones de vídeo para hacerse pasar por otra persona ya son un peligro real

  • Se trata de videomontajes hiperrealistas que están cada vez más al alcance de cualquiera.
  • Se falsifica la cara y la voz de una persona en archivos de vídeo y audio usando inteligencia artificial
Un ordenador con la cara de una mujer que está al lado de ese mismo ordenador.
La falsificación de tu rostro en un vídeo será cada vez más fácil con la tecnología 'deepfake'.
Gerd Altmann / Pixabay
Un ordenador con la cara de una mujer que está al lado de ese mismo ordenador.

Los 'deepfake' o ultrafalsos, que son videomontajes hiperrealistas, se convertirán este año en algo "casi habitual", porque empieza a ser fácil crearlos. Una práctica que tiene aspectos divertidos, pero también peligrosos por su capacidad para suplantar identidades.

Esa es la opinión del gerente global de operaciones con el consumidor de la empresa Panda Security, Hervé Lambert, quien explica que un ultrafalso supone falsificar la cara y la voz de una persona en archivos de vídeo y audio usando inteligencia artificial, con una calidad que hace difícil diferenciar realidad de ficción.

Aunque hace tiempo que están entre nosotros, quizás el más conocido en España sea la parodia El equipo E, en el que se usan las caras de los principales líderes políticos del país para hacerlos pasar por los protagonistas de la serie televisiva de los años ochenta El equipo A.

"No tengo duda de que seguirán creciendo y de forma brutalmente rápida", dice Lambert, para quien no deja de ser una fuente de preocupación. 

De hecho, Panda ha señalado el 'phising' a través de los ultrafalsos como uno de los mayores retos de ciberseguridad para este año.

La firma de ciberseguridad danesa Deeptrace, en un estudio publicado en octubre del año pasado, señalaba que el fenómeno de los ultrafalsos estaba creciendo rápidamente y que durante los siete primeros meses de 2019 habían detectado 14.678, un número que casi duplicaba el del periodo precedente.

Una puerta abierta a usos ilícitos

La tecnología tiene su cara positiva, pero también una vertiente oscura, depende del uso que se le dé. En el caso de los 'deepfake', el que permitan suplantar una identidad de manera tremendamente real abre la puerta a usos ilícitos.

Sobre todo cuando cada vez es más fácil acceder a la tecnología necesaria y con mejores resultados. Hacer un ultrafalso "todavía no es un juego de niños, pero es relativamente fácil", agrega Lambert.

Para hacer un vídeo de este tipo bastaría una decena de imágenes y la inteligencia artificial hace el resto, dice Lambert, quien agrega: "Esta misma mañana me he descargado ocho aplicaciones gratis".

Ojo a los términos y condiciones

En este punto advierte sobre la facilidad con la que algunos usuarios dan permiso a aplicaciones para que puedan usar sus imágenes, y es que "nadie mira los términos y condiciones de uso" cuando lo hacen.

Un porcentaje "muy elevado" de este tipo de vídeos están relacionados con la pornografía, pero otros tienen que ver con desacreditar a una persona haciendo creer que ha dicho cosas cuando no es cierto, o intentos de fraude.

"Me temo -indica- que estamos empezando a ver casos importantes" que han afectado a personas de diversos países. "Hay muchos ejemplos que van por el lado oscuro", agrega.

Deeptrace señala en su web que estos vídeos falsos "están teniendo un impacto significativo en la esfera política" con dos casos "emblemáticos" en Gabón y Malasia, uno de ellos relacionado con una campaña de desprestigio político.

Con esta técnica es posible ver y oír decir al expresidente de Estados Unidos Barack Obama que su sucesor, Donald Trump, es un "completo idiota".

Lo hace en un "ultrafalso" creado por el guionista Jordan Peele para alertar sobre el peligro de estos vídeos.

Pero los 'deepfake' engloban también la voz, con la que "vemos muchos timos de este estilo", señala Lambert.

"Si recibo una llamada del CEO de mi empresa y me pide que le pase el documento con la estrategia del año que viene se lo pasaré aunque sea a una dirección (de correo electrónico) diferente a la habitual", lo que supone un problema de seguridad.

El experto no se aventura a decir "cómo de grande es el problema" que generan los ultrafalsos ahora mismo, pero cree que "es una amenaza muy real" y las personas, hasta que no se les explica, "no ven el peligro".

Hasta hace diez años nadie usaba las palabras 'ransomware' o 'malware' y ahora "todo el mundo sabe lo que es o le suena". Con los 'deepfake' pasará algo similar, considera.

Por el momento, se están empezando a tomar medidas y Facebook ha anunciado que prohibirá estos vídeos de cara a las elecciones estadounidenses de 2020, aunque sí estarán admitidas las parodias. En China está prohibidos desde comienzo de año.

Detectar estas prácticas en "un reto muy grande", se puede recurrir a la inteligencia artificial para detectar a la propia inteligencia artificial usada para crear ultrafalsos, pero indica: "a día de hoy, un software capaz de detectarlo no existe, que yo sepa".

Para Lambert, hay que invertir mucho en tecnología: "Tenemos que cambiar los paradigmas y lo estamos haciendo. Todos tenemos que luchar contra ello y lo conseguiremos, aunque el panorama es un poco preocupante a día de hoy".

Mostrar comentarios

Códigos Descuento