Vuelve Deep Nostalgia, pero mejorada: esta herramienta te permite convertir fotos inanimadas de personas en vídeos que se mueven como quieras

Los usuarios podrán elegir el movimiento de las deepfakes.
Los usuarios podrán elegir el movimiento de las deepfakes.
D-ID
Los usuarios podrán elegir el movimiento de las deepfakes.

MyHeritage, la compañía que se encuentra detrás de la Inteligencia Artificial de la aplicación Deep Nostalgia, quiere seguir indagando en su tecnología y mejorar sus deepfakes. El nombre de su IA es ‘D-ID’ y en su página web han señalado que están trabajando en que sea capaz de convertir las fotos de personas en vídeos para que hablen y se muevan como se quiera.

Una de las funcionalidades que pueden tener las deepfakes son las de dar vida a nuestras fotografías de familia más antiguas. De esta manera, los recuerdos del pasado afloran y puedes imaginar cómo se veía tu madre de joven con mayor facilidad, por ejemplo.

Los resultados de Deep Nostalgia ya son realistas actualmente. No obstante, los usuarios no pueden elegir dónde miran la cabeza ni los ojos de la persona de la imagen. Estas limitaciones se debían a que era el propio algoritmo quien determinaba la dirección que seguían los individuos.

Finalmente, en el evento TechCrunch Disrupt 2021 que se celebró este mes, D-ID adelantó una tecnología más avanzada a Deep Nostalgia a la que habían apodado ‘Speaking Portraits’. En este caso, explicaron que la Inteligencia Artificial hacía que las fotos inanimadas se moviesen y hablasen gracias a un vídeo, un audio o un archivo de texto.

Según comentó D-ID, Speaking Portait contará con dos tipos de deepfakes: Single Portrait y Trained Character. El primero será menos creíble que el segundo que es la versión más avanzada.

Single Portrait

La tecnología de Single Portrait permite que se pueda convertir una imagen en una cabeza parlante. Sin embargo, los movimientos se limitarán únicamente a la cabeza. Esto quiere decir que, si el cuerpo aparece en la fotografía, este no se moverá. Por otro lado, el fondo de la foto también permanecerá estático.

Trained Character

Esta versión necesita que se inserte un vídeo de 10 minutos de la persona ejecutando una serie de movimientos y hablando, según lo que marquen las directrices. De este modo, se puede cambiar el fondo para que, por ejemplo, la persona del vídeo pueda convertirse en una presentadora de un telediario.

Mediante Trained Character, los usuarios podrán animar el cuerpo de la persona, además de modificar el fondo. Así, los bordes borrosos y las deformaciones típicas de los deepfakes serán menos delatadores.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento