¿Qué significa realmente que prohíban ChatGPT y otras inteligencias artificiales en tu país? ¿Puedes seguir usándolas 'piratas'?

  • Debatimos con varios expertos sobre el alcance de una prohibición como la que hizo efectiva Italia durante varias semanas sobre el chatbot de OpenAI. ¿Fueron precavidos o insensatos? ¿Se debe frenar la tecnología?
La Agencia Española de Protección de Datos (AEPD) ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa, según ha informado la AEPD. (Fuente: EBS/ Europa Press/ OpenAI)
ChatGPT es un chatbot impulsado por IA disponible vía web.
EP
La Agencia Española de Protección de Datos (AEPD) ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa, según ha informado la AEPD. (Fuente: EBS/ Europa Press/ OpenAI)

Casi no llegan a tiempo, pero en el último momento la gente de OpenAI ha publicado las mejoras en cuanto a privacidad de su herramienta ChatGPT que le exigían las autoridades italianas para desbloquear este chatbot en el país.

Un poco de contexto: el Garante para la Protección de Datos Personales (GPDP) de Italia anunció a finales de marzo que aplicaba una “limitación temporal” de ChatGPT, bloqueando “con efecto inmediato” el uso de la herramienta en el país. La medida de la autoridad italiana estuvo motivada porque el pasado 20 de marzo este chatbot sufrió una brecha de seguridad que resultó en la filtración de datos de sus usuarios —incluida información sobre pago en el caso de las cuentas con suscripción—.

Tras el incidente, el GPDP dio de plazo hasta el 30 de abril a OpenAI para que adaptase la gestión de datos de ChatGPT a la normativa europea, exigiendo que cumpliese con 5 requisitos.

Después de que Italia se levantase en armas con la privacidad como bandera, otros países e instituciones le siguieron los pasos. El Comité Europeo de Protección de Datos abrió un grupo de trabajo sobre ChatGPT. E incluso España inició una investigación por posible vulneración de la protección de datos —algo sobre lo que no hemos tenido nuevas noticias desde que se anunció—.

Para cumplir con lo que le exigía la normativa, este chatbot impulsado por la inteligencia artificial (IA) de OpenAI ofrece ahora una mayor visibilidad de su política de privacidad. 

Entre las novedades, incluye un formulario de exclusión voluntaria del contenido de los internautas y un nuevo cuestionario para que los usuarios de la Unión Europea (UE) puedan rechazar la recopilación de datos por parte de la compañía —datos que se utilizan para seguir entrenando la ‘inteligencia’ de ChatGPT—.

Después de aplicar las medidas, Associated Press informó el viernes pasado que OpenAI cumplía con las condiciones para levantar la prohibición del software de IA.

Pero, ¿qué significa realmente que prohíban ChatGPT y otras inteligencias artificiales en tu país? ¿Puedes seguir usándolos ‘piratas’? ¿Solo implica que la versión oficial no está disponible?

En 20BITS hemos hablado con varios expertos para que nos expliquen el alcance de este tipo de limitaciones, especialmente en un territorio tan restrictivo con los datos como es la UE y su Reglamento General de Protección de Datos.

"Prohibir la inteligencia artificial o cualquier otro tipo de tecnología es un riesgo"

Así de tajante es Gianluca Pereyra, Cofundador Visor.ai, sobre la decisión de bloquear ChatGPT. “Prohibir la inteligencia artificial o cualquier otro tipo de tecnología es un riesgo para un país, y para todo el resto del mundo. Uno de los principales problemas a los que nos podemos enfrentar cuando se prohíbe el uso de la IA es al uso de herramientas no oficiales que pueden resultar contraproducentes dado a su debida falta de protección. Como está ocurriendo en muchos países, que, debido al empleo de dichas herramientas, se están volviendo mucho más vulnerables a los ciberataques”, explica.

En algunos casos, comenta, hay usuarios que siguen utilizando el programa oficial cambiando la VPN de su país. De esto ya te hablamos en este medio de comunicación en el caso de Italia, pero también es algo muy habitual en China, por ejemplo. Sin embargo, tal y como valora el experto en IA, “no todas las VPN son iguales en términos de políticas de privacidad y seguridad. Algunas de ellas pueden tener políticas de registro de datos que comprometan la privacidad del usuario, lo que podría ser considerado como un riesgo significativo para la privacidad online”.

En su opinión, “prohibir es un extremo al que no debemos llegar con la tecnología debido a que los usuarios siempre podrán encontrar soluciones para seguir utilizándola, pero muchas veces de manera ilegal y acarreando el riesgo que conlleva”.

Por el contrario, cree que lo que tenemos que hacer es “educar a la sociedad para un uso responsable de la inteligencia artificial y de cualquier tipo de tecnología que ya conocemos”. “Cualquier país debe apostar por una población que cuente con los conocimientos necesarios para la buena utilización y funcionamiento de la IA. Si hay restricciones, lo único que provocará será el retraso tecnológico de dicho país respecto al resto”, concluye.

"No es nada recomendable usar aplicaciones piratas"

Andrés Pulgarín, CEO y cofundador de Botslovers, subraya también los riesgos de piratear este tipo de herramientas: “No es nada recomendable usar aplicaciones piratas, hay que confirmar que son las apps oficiales, ya que pueden ser el origen de implantación de malware en nuestros dispositivos para robarnos información o generar costes inesperados”.

Con respecto al bloqueo, afirma que “como siempre la tecnología va por delante de la Ley y los gobiernos, en su afán por entender y regular el uso de la IA, parece que encuentran la solución en prohibir su acceso”. Ya cuando hicimos esta entrevista, previamente a que se diese a conocer que se había levantado el veto italiano a ChatGPT, el experto adelantaba que sería “solo cuestión de tiempo” que su utilización sea permitida.

Y también se arriesgaba a sacar la bola de cristal: “Estas herramientas de IA generativa se convertirán en nuestra nueva forma de usar el software y las aplicaciones y cambiarán para siempre cómo nos comunicamos”.

"La regulación está muy inmadura"

Por su parte, Iñigo Laucirica, Investmen Associate de Samaipata, mencionaba que es “difícil impedir que los usuarios no puedan acceder a la producción de estos modelos a través de otras plataformas”, por mucho que se prohíba la herramienta —en este caso ChatGPT—.

“La regulación está muy inmadura todavía en este campo y es probable que a las autoridades les falte el conocimiento y las herramientas para imponer controles al uso de la IA”, destacaba.

El país que prohíba el uso de ChatGPT "estará cometiendo un error"

Víctor Gómez, CEO de 4Geeks Academy Europe, asevera que “frenar la tecnología en cualquiera de sus ámbitos es un error importante”, siempre y cuando, claro, no estemos hablando de casos en los que se atente contra la paz, integridad y bienestar de las personas. “No es relevante el país, donde se prohíba su uso se estará cometiendo un error”, insiste.

Bloquear estas plataformas significaría “un retroceso o pérdida de oportunidades de desarrollo”. “Las herramientas como ChatGPT y otras inteligencias artificiales, si bien recolectan datos de forma presuntamente irregular, tienen muchas ventajas dado la capacidad para realizar tareas complejas que las personas tardaríamos muchísimas más horas en realizar, si es que pudiéramos realizarlas. La innovación, gracias a la IA, puede avanzar muchísimo más rápido, por lo tanto, limitaríamos el crecimiento de las empresas y la competitividad de los países”.

En esta línea, supondría “un impacto” económicamente. “Se están invirtiendo actualmente millones de euros en la inteligencia artificial, la prohibición (e incluso una regulación sin precedentes, aunque no digo que no haya que regularla, podría estar de acuerdo según las bases de esa regulación) de estas herramientas podría ralentizar la investigación y el desarrollo de nuevos modelos, afectando directamente en la economía”.

Si se disminuye la investigación, “soluciones a nuestro día a día podrían tardar mucho más en llegar que como lo harían con la inteligencia artificial, también se destruirían muchos puestos de trabajo que se dedican actualmente a este sector”.

A pesar de estas afirmaciones tan rotundas, cree que se debe estar alerta ante usos preocupantes de la inteligencia artificial y que se debe regular la manera en que recopilan datos de los usuarios las herramientas que la utilizan. “Es importante que existan regulaciones en el uso de la inteligencia artificial, la privacidad de las personas no puede ser violada bajo ningún motivo, también hay que regular otros ámbitos y fijar incluso códigos de ética dentro de la IA”.

El experto hace un guiño a estas inteligencias y nos dice que ha preguntado a la propia ChatGPT qué le parece que la bloqueen en algunos países. Y esta fue su respuesta:

“La prohibición del uso legal de herramientas de inteligencia artificial como ChatGPT no garantiza que los piratas informáticos no puedan seguir utilizándolas de manera ilícita, lo que podría aumentar el riesgo de ataques cibernéticos y otros tipos de delitos informáticos. Por esta razón, es importante que se tomen medidas para regular y controlar el uso de estas herramientas, en lugar de simplemente prohibirlas”.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento