Todos (¿menos Musk?) temen a la inteligencia artificial: EEUU y grandes tecnológicas firman un acuerdo de regulación

Las Big Tech Amazon, Google, Meta y Microsoft y las empresas emergentes OpenAI, Anthropic e Inflection se han unido en un pacto sin precedentes y han acordado con la Casa Blanca que sus productos de inteligencia artificial serán seguros antes de lanzarlos.
La Casa Blanca ha obtenido compromisos voluntarios de siete empresas estadounidenses.
La Casa Blanca ha obtenido compromisos voluntarios de siete empresas estadounidenses.
20BITS/CANVA
La Casa Blanca ha obtenido compromisos voluntarios de siete empresas estadounidenses.

La Casa Blanca ha encontrado quien escuche sus inquietudes —que son las mismas que vive el resto del mundo estos días— sobre la inteligencia artificial: las grandes compañías tecnológicas Amazon, Google, Meta y Microsoft y las empresas emergentes del sector OpenAI, Anthropic e Inflection han firmado un acuerdo por el que se comprometen a cumplir con una serie de principios para regular el desarrollo y uso de la IA.

El pacto establece un marco para garantizar que la IA se desarrolle y utilice de forma segura, ética y responsable. De hecho, los firmantes se comprometen a que sus productos de inteligencia artificial sean seguros antes de lanzarlos.

Asimismo, han acordado que habrá una supervisión por parte de terceros —a los que llaman ‘equipos rojos’— del funcionamiento de sus sistemas comerciales de inteligencia artificial, aunque no detallan quién auditará la tecnología o responsabilizará a las empresas.

También se han comprometido a llevar a cabo pruebas de seguridad “realizadas en parte por expertos independientes”, según el comunicado de la Casa Blanca, y a informar de las vulnerabilidades de sus sistemas, así como de los fallos o los riesgos —incluido cuando la tecnología esté afectada por sesgos—.

En el terreno audiovisual, usarán marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, las llamadas ‘deepfake’.

¿Cuál es el objetivo del pacto?

Los compromisos voluntarios están destinados a ser una forma inmediata de abordar los riesgos antes de un impulso a más largo plazo para lograr que el Congreso apruebe leyes que regulen la tecnología. Tal y como dice el documento: “Son solo un primer paso para desarrollar y hacer cumplir obligaciones vinculantes para garantizar la seguridad y la confianza”.

Algunos defensores de las regulaciones de IA dijeron que este movimiento de Joe Biden es “un comienzo”, pero que “se necesita hacer más” para responsabilizar a las empresas y sus productos.

Efectivamente, en el documento el presidente estadounidense asegura que “cumplir la promesa y minimizar el riesgo de la IA requerirá nuevas leyes, reglas, supervisión y cumplimiento”. “La Administración Biden-Harris continuará tomando medidas ejecutivas y buscará una legislación bipartidista para ayudar a Estados Unidos a liderar el camino en innovación y protección responsables. A medida que avanzamos en esta agenda en casa, trabajaremos con aliados y socios en un sólido código de conducta internacional para regir el desarrollo y uso de la IA en todo el mundo”, añade.

Los compromisos del pacto

El documento subraya tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza. Así, las empresas que firmen este acuerdo voluntario se comprometen a:

  • Asegurarse de que sus productos sean seguros antes de presentarlos al público. Eso significa probar la seguridad y las capacidades de sus sistemas de IA, someterlos a pruebas externas, evaluar sus posibles riesgos biológicos, de ciberseguridad y sociales, y hacer públicos los resultados de esas evaluaciones.
  • Crear sistemas que prioricen la seguridad. Eso significa salvaguardar sus modelos contra amenazas internas y cibernéticas y compartir las mejores prácticas y estándares para evitar el uso indebido, reducir los riesgos para la sociedad y proteger la seguridad nacional.
  • Hacer lo correcto por el público y ganarse la confianza de la gente. Eso significa facilitar que los usuarios sepan si el contenido de audio y visual está en su forma original o ha sido alterado o generado por IA. Significa garantizar que la tecnología no promueva el sesgo y la discriminación, fortaleciendo las protecciones de privacidad y protegiendo a los niños de cualquier daño. Finalmente, significa usar la IA para ayudar a enfrentar los mayores desafíos de la sociedad, desde el cáncer hasta el cambio climático, y gestionar los riesgos de la IA para que sus beneficios puedan aprovecharse por completo.

¿A qué temen?

A ‘lo de siempre’ —entendiendo esto como el último medio año—: las nuevas herramientas de IA generativa pueden escribir texto convincentemente similar al humano y generar nuevas imágenes que parezcan reales, con la consecuente preocupación por su capacidad para engañar a las personas y difundir desinformación.

“La inteligencia artificial ofrece una enorme promesa y un gran riesgo. Para aprovechar al máximo esa promesa, Estados Unidos debe salvaguardar nuestra sociedad, nuestra economía y nuestra seguridad nacional contra riesgos potenciales”, comienza el comunicado de la Casa Blanca.

Pero, además, la preocupación por máquinas que se hacen más listas que los humanos y, desbocadas, arrasan con el mundo conocido no es tampoco algo nuevo. Lleva entre nosotros desde los tiempos de Alan Turing.

De hecho, existe la idea de una ‘supermáquina’, una inteligencia artificial que superará a la inteligencia humana y hará que lo ‘sintético’ tome el relevo. A la fecha en la que esto ocurriría se le ha llamado ‘Singularidad’.

No obstante, conviene mencionar que no hace falta una superinteligencia para destruir nuestro mundo conocido: por poner un ejemplo reciente, investigadores de IA de la Universidad de California, Berkeley, señalaban el riesgo potencial que podría tener algo tan simple como un chatbot viral que brindase consejos y les dijera a millones de personas que abandonen la educación. O, en un terreno más aterrador, naciones que construyan superarmas impulsadas por inteligencia artificial. Ambos casos podrían ser ya, hoy por hoy, una realidad.

Otras iniciativas en marcha en el mundo

Varios países han estado buscando formas de regular la IA, incluidos los legisladores de la Unión Europea que han estado negociando reglas generales de IA para el bloque de 27 naciones.

El secretario general de la ONU, António Guterres, dijo recientemente que las Naciones Unidas es “el lugar ideal” para adoptar estándares globales y nombró una junta que informará sobre las opciones para la gobernanza global de la IA para finales de año.

Por su parte, China ha pisado el acelerador en materia legislativa y a mediados de julio se convirtió en el primer país del mundo en implementar una regulación sobre inteligencia artificial. Las nuevas normas del país asiático entrarán en vigor en un mes, el próximo 15 de agosto.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento