Se acabaron las llamadas estafa con voces creadas por IA: este país las prohíbe por ley

Las llamadas fraudulentas con deepfake de audio cada vez son más realistas y efectivas. Los ciberdelincuentes están aprovechándolo, pero han empezado a poner límites específicos para los casos que se lleven a juicio. 
Adiós a las llamadas con voces clonadas por IA para evitar estafas.
Adiós a las llamadas con voces clonadas por IA para evitar estafas.
Pexels
Adiós a las llamadas con voces clonadas por IA para evitar estafas.

La inteligencia artificial (IA) avanza a grandes pasos y cada vez tiene un mayor número de utilidades. Más allá del lado creativo, dicha tecnología también se utiliza para engañar cruelmente a los usuarios a través de las estafas telefónicas

Con el objetivo de evitar este tipo de delitos, la Comisión Federal de Comunicaciones (FCC) de Estados Unidos ha declarado oficialmente como ilegales las llamadas automáticas que usan clonación de voz generada por IA. Las autoridades de New Hampshire sospechan que más de 20.000 residentes de su municipio recibieron dichas llamadas falsas. 

Las deepfake de audio

La clonación de voz por inteligencia artificial, también conocidas como deepfake de audio, no necesariamente se usan para hacer el mal. Se han utilizado en campañas de publicidad, como el mítico anuncio de Campofrío de Lola Flores. También hay quienes lo usan para entretenerse. 

Lamentablemente, sus resultados son cada vez más realistas, sobre todo si pagas por las opciones premium, que son más completas.  Eso ha dado lugar a que los ciberdelincuentes se aprovechen de ello para engañar en tiempo real a sus víctimas, con audios prediseñados que utilizan en sus llamadas telefónicas. 

Cómo utilizan la IA para clonar voces de forma ilegal

Solo hace falta una grabación de 30 segundos para que esta tecnología pueda recrear la voz y el timbre de una persona de forma realista. Así, los ciberdelincuentes se hacen pasar por un familiar o conocido para conseguir el dinero y la información de las víctimas.

Estos programas de IA analizan la voz de la persona a la que se quiere imitar. De este modo, encuentran patrones que consolidan los matices y el sonido único de la persona en cuestión al hablar. Básicamente, los software se entrenan para imitar el tono, el acento e, incluso, la edad.

Las consecuencias de los deepfake de audio

Un reportaje realizado por el Washington Post afirma que este tipo de estafas ha causado la pérdida de 11 millones de dólares el pasado 2022, convirtiéndose en el segundo tipo de estafa más común en EEUU. Los estafadores han comenzado a utilizar estos software para hacerse pasar por familiares y allegados en apuros y engañar a las víctimas. 

Actualmente, existe un programa de síntesis de voz basado en la inteligencia artificial de ElevenLabs, que cuesta 330 dólares mensuales. Uno de los casos más sonados de dicha herramienta fue el de los padres del abogado Benjamin Perkin, que recibieron dos llamadas del que creían que era su hijo. En total, transfirieron 15.000 dólares en Bitcoin y no han podido recuperarlo. 

La inteligencia artificial se erige como una herramienta realmente potente, pero también tiene un lado oscuro, como este de las estafas telefónicas. Su utilización se está dando con estos fines 'indebidos', e incluso se están creando bases de datos para predecir o adaptar el timbre de voz. 

Como consecuencia de estas nuevas prácticas, los expertos afirman que el único método de evitar este tipo de estafas es verificar este tipo de llamadas antes de enviar dinero a nadie. 

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento