Lo último en estafas es usar deepfakes de audio que imitan la voz de seres queridos para pedir dinero urgente

Aunque se trate de un supuesto ser querido, asegurarte de que realmente es él antes de darle dinero.
Aunque se trate de un supuesto ser querido, asegurarte de que realmente es él antes de darle dinero.
@mohamed_hassan y OpenClipart-Vectors de Pixabay / Montaje: 20BITS
Aunque se trate de un supuesto ser querido, asegurarte de que realmente es él antes de darle dinero.

En The Washington Post han hablado de los peligros que se esconden tras los deepfakes de audio generados por IA que son capaces de imitar voces de seres queridos para cometer ciberdelitos. El medio pone el ejemplo de Ruth Card (73 años) que recibió una llamada supuestamente de su nieto Brandon que le comentaba que estaba en la cárcel sin teléfono ni tarjeta. "Necesito dinero para la fianza", decía una voz que sonaba exactamente igual que la del familiar. 

Al tratarse de un ser querido, Card y su marido decidieron ir al banco y retirar 3.000 dólares canadienses y tenían pensado hacer lo mismo en otra oficina, con la intención de introducirlo en otra cuenta. El director de la segunda entidad se percató de ello y optó por hablar con ellos para alertarles de que otros clientes habían sido víctimas de una estafa con deepfake.

El matrimonio tuvo suerte de que el director pudiese alertarles, sin embargo, no todos llegan a ese final. Según datos de la Federal Trade Commission (FTC), las suplantaciones de identidad en 2022 superaron las 36.000 denuncias de personas en Estados Unidos y se posicionaron como el segundo tipo de fraude más común. Aunque no todas ellas están relacionadas con el uso fraudulento de IA, cabe señalar que estas estafas son muy realistas y hay casos en los que se ha llegado a robar 35 millones de dólares. 

Los avances en IA suponen buenas noticias en ocasiones, pero también malas como ocurre con las tácticas de engaño. Incluso si la víctima es una persona que tenga cuidado y conozca la existencia de estas prácticas, las deepfakes son cada vez más realistas y basta con imitar la voz o el rostro de personas de confianza para que caiga en la trampa.

A través de software de síntesis de voz como ElevenLabs, que tiene desde suscripción gratuita a otras de 330 dólares al mes, los estafadores pueden replicar voces. Para ello, solo necesitan audios cortos de los seres queridos de las víctimas y realizar una llamada usando el sistema para pedir dinero urgente.

Lo ideal, para cerciorarse de que quien nos pide dinero realmente es quien dice ser, es llamar al número real de esa persona. Aunque al otro lado del teléfono comenten que no tienen acceso a su verdadero número, puede tratarse de una mentira. También es interesante fijarse en posibles distorsiones o fallos que inviten a pensar que se trata de un audio falso.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento