¿Es posible regular la inteligencia artificial? La 'IA buena' contra la 'IA mala'

  • Sam Altman, 'padre' de ChatGPT, cree que es necesaria una regulación de la inteligencia artificial para proteger a la sociedad de posibles riesgos y fraudes. ¿Se puede regular la IA sin frenar su desarrollo e innovación?
En 20Bits te vamos a contar todo lo que necesitas saber para iniciarte en el mundo de la IA
Cada vez más voces piden acordar un marco normativo para controlar la Inteligencia Artificial.
20BITS
En 20Bits te vamos a contar todo lo que necesitas saber para iniciarte en el mundo de la IA

Según Sam Altman, la idea de una regulación gubernamental de la inteligencia artificial (IA) “sería bastante acertada”, dados los riesgos potenciales que plantea para la sociedad. 

En el contexto de ciberseguridad y el fraude online, los estafadores utilizan cada vez más la IA para lanzar ataques de phishing más sofisticados y escalables. Además, aprovechan los llamados deepfakes para suplantar los datos biométricos de sus víctimas y apoderarse de sus cuentas.

Alexey Headshot

Alexey Khitrov

  • Fundador y presidente de ID R&D, una empresa de Mitek Systems

Al igual que Altman, yo también acojo con satisfacción la idea de crear un marco regulatorio para proteger a las personas de posibles riesgos y trampas. Sin embargo, el debate en torno a la regulación debe ser holística e incorporar más aspectos que la mera concesión de licencias a las empresas de IA.

¿Cómo podemos asegurarnos de que no frenamos la innovación? ¿Cómo podemos establecer los marcos adecuados para utilizar la IA en la lucha contra la ciberdelincuencia? ¿Existe una 'IA buena' que pueda ayudarnos a luchar contra una 'IA mala'?

La amenaza actual: los 'deepfakes'

Todos recordamos cuando en marzo de este año, nos sorprendió una imagen de un Papa Francisco muy elegante con un chubasquero de Balenciaga. Sin embargo, a pesar de su “realismo” no era una imagen real: Un creador de contenidos digitales utilizó la herramienta Midjourney para crearla. Este tipo de tecnología sofisticada puede generar escenas falsas –pero realistas– a partir de descripciones en lenguaje natural.

Aunque se trate de un uso divertido de los deepfakes, es importante analizar seriamente su lado más oscuro y considerar los riesgos para la sociedad. En manos de un ciberdelincuente, estos vídeos o imágenes falsos pueden ser muy peligrosos. De hecho, en 2023 el 20% de los ataques de toma de control de cuentas utilizarán deepfakes, según Gartner.

La popularidad de herramientas de IA generativa como Midjourney y ChatGPT pone un peligroso poder en manos de los ciberdelincuentes. Ahora pueden utilizar chatbots junto con otro software generativo, como las herramientas de deepfake, para crear identidades sintéticas con la intención de robar datos. De hecho, Europol ha señalado recientemente los peligros de que los ciberdelincuentes utilicen la IA para ampliar sus operaciones, y destacados investigadores en IA han pedido que se haga una pausa en el desarrollo de la IA antes de que se puedan apreciar los riesgos.

Pero las herramientas utilizadas con fines delictivos –la 'IA mala'– pueden combatirse con la 'IA buena', que utiliza la tecnología para detectar y bloquear a los estafadores. Los proveedores de tecnología pueden combatir la inteligencia artificial con la inteligencia artificial misma, pudiendo aportar la solución a su propia amenaza.

El auge de ataques 'phishing' y robos de identidad

Hay dos áreas clave en las que los deepfakes están causando mayor preocupación en la sociedad. El primero se refiere a la ingeniería social, en la que los ataques de phishing se utilizan para engañar a consumidores desprevenidos con correos electrónicos, páginas web y llamadas telefónicas fraudulentas para obtener información personal. 

Se espera que las voces sintéticas combinadas con chatbots inteligentes se utilicen para crear 'estafadores virtuales' dotados de inteligencia artificial. Estos estafadores virtuales pueden llamar y conversar con sus víctimas para robar información y dinero, incluso 'aprenderán' a mejorar en la estafa con el tiempo.

La segunda área de preocupación es el fraude y el robo de identidad, donde se utilizarán deepfakes para crear identidades sintéticas y abrir cuentas bancarias falsas, así como para suplantar la identidad de las víctimas y entrar en sus cuentas engañando a la seguridad biométrica.

¿Cómo cruzan la brecha de seguridad? La respuesta es que las herramientas actuales para bloquear el fraude a menudo no están a la altura. De hecho, el 95% de los sistemas de reconocimiento facial actuales son incapaces de detectar falsificaciones sofisticadas. El despliegue de una tecnología biométrica que impida el acceso a los sistemas críticos y a todo lo que no sea humano será fundamental en las estrategias de ciberdefensa.

Combatir la IA… con IA

Sin embargo, combatir la IA con IA ha reducido en gran medida el éxito de los estafadores. La tecnología del fraude evoluciona, pero ya vamos dos pasos por delante. Hoy en día, se está poniendo freno a los deepfakes con la detección de liveness (o ‘detección de vida’, en español) para evitar algunas de las formas más avanzadas de fraude. La seguridad biométrica –la 'IA buena'–, en función de los datos disponibles, puede fortalecer las defensas y detectar a los delincuentes de varias formas, como el análisis multimodal, las marcas de agua y las técnicas de firma digital, entre otras.

Con deepfakes y chatbots impulsados por tecnologías como GPT-4, las herramientas tradicionales de ciberseguridad ya no sirven. Por ejemplo, GPT-4 puede ejecutar salidas de texto si se dan entradas creadas a partir de texto e imágenes de forma arbitraria, a través de las que pueden eludir el ‘CAPTCHA’ y llevar a cabo un ataque fraudulento. Cuando la IA prescinde de medidas de defensa, puede utilizarse para atacar a personas vulnerables, ganarse su confianza y robar información.

A medida que aumentan los estándares de las herramientas de IA generativa, aumentan también sus posibilidades de ser utilizadas con fines delictivos. La disponibilidad generalizada de grandes modelos lingüísticos hace que los ciberataques sean más accesibles. La mejora de la calidad en la respuesta de los chatbots significa que su coherencia puede convertirse en un arma, utilizarse para crear identidades sintéticas y convertir a los ciberdelincuentes aficionados en profesionales. Por eso la IA debe luchar contra la IA, utilizando contramedidas basadas en la tecnología para detectar el fraude a gran escala y detenerlo en seco.

Siempre habrá riesgos con cada nuevo tipo de tecnología, pero la 'buena IA' ya está disponible para derrotar a los estafadores. En mi opinión, la regulación debe seguir esta premisa para que la IA forme parte de la solución y no solo del problema. Debe promover el progreso de la IA en lugar de frenar la innovación. 

Todos deberíamos recordar que, en última instancia, la IA generativa es una fuerza para el bien.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento