Logo del sitio

Usan deepfakes para imitar las voces de jefes de empresas y engañar a sus trabajadores

Las deepfake de voz pueden hacerse en tiempo real, por lo que los ciberdelincuentes pueden hacer llamadas.
Las deepfake de voz pueden hacerse en tiempo real, por lo que los ciberdelincuentes pueden hacer llamadas.
PxHere

Las deepfakes se están volviendo más realistas con el paso del tiempo, tanto en vídeos, como en fotos o en audios. Se usan en anuncios como el de Cruzcampo con Lola Flores o para aplicaciones que nos ayudan a entretenernos un rato. Sin embargo, esta tecnología también ha llegado a manos de los ciberdelincuentes.

Algunas empresas están comenzando a recibir ciberataques en los que los estafadores falsifican sus voces para convencer a sus víctimas de que realicen transferencias bancarias. Nick Giacopuzzi, consultor senior de investigaciones cibernéticas en StoneTurn, explicó a Protocol que los ciberdelincuentes usan audios creados con ayuda de Inteligencia Artificial que imitan las voces de un alto cargo de las compañías.

"Es la voz de tu jefe –apunta Giacopuzzi-. Suena como la persona con la que hablas todos los días. A veces puede tener mucho éxito". Se trata de una nueva forma de phishing más realista, ya que las personas no suelen caer en que es una estafa si están oyendo una voz que suena a la de un directivo, por ejemplo.

Dos tercios de los 125 expertos en seguridad informática encuestados en un estudio de VMware afirman que las deepfakes, entre las que se incluyen las de audio y vídeo, fueron un componente de los ataques que investigaron en 2021. El porcentaje total es un 13% mayor que el informe de 2020.

Rick McElroy, principal estratega de ciberseguridad en VMware, señala que dos jefes de seguridad corporativos fueron víctimas de ataques de audios falsos en los últimos años. El profesional detalla para Protocol que, en ambos casos, se llegaron a realizar transferencias de 6 cifras; aunque hay ciberataques similares más preocupantes, como el que hizo que un gerente bancario de Hong Kong transfiriese 35 millones de dólares a los atacantes en 2020.

Yisroel Mirsky, director del Laboratorio de Investigación de IA Ofensiva de la Universidad de Ben-Gurion, dirigió hace un tiempo un estudio sobre cómo imágenes médicas falsificadas podían suponer un diagnóstico erróneo. Ahora centra su atención a las deepfakes de voces.

La tecnología de las deepfakes de voces han mejorado tanto que el problema ya no es solo que se pueda clonar una voz en audio, sino que se puede hacer en tiempo real. De este modo, las llamadas telefónicas a empleados de una compañía pueden resultar más realistas.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento