El polémico artículo de un investigador de inteligencia artificial: "Hay que estar dispuesto a bombardear un centro de datos"

La introducción de ChatGPT en las aulas.
Ilustración sobre la introducción de ChatGPT en las aulas.
Carlos Gámez
La introducción de ChatGPT en las aulas.

Tras el manifiesto que pide la suspensión durante seis meses de los experimentos con inteligencia artificial (IA) muy avanzada como el ChatGPT desarrollado por la tecnológica OpenAI, ahora el investigador y defensor de lo que él ha llamado inteligencia artificial amigable, Eliezer Yudkowsky, va más allá: advierte que esa medida se queda corta y aboga por cerrar los centros de datos de inteligencia artificial, por que la moratoria se aplique de forma "indefinida y mundial".

En un artículo publicado en la revista Time el pasado viernes bajo el título 'No basta con detener el desarrollo de la IA. Tenemos que cerrarlo todo', Yudkowsky escribe algunas líneas que han sido objeto de polémica. En concreto, afirma que "muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán. [...] No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos". 

Y agrega: "Si alguien construye una IA demasiado poderosa, en las condiciones actuales, lo que auguro es que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después".

En la carta expone estas ideas para argumentar su negativa a apoyar la carta firmada por 1.125 personas -el magnate Elon Musk y el cofundador de Apple Steve Wozniak, entre ellas- para pedir una pausa durante seis meses en el avance de las herramientas de inteligencia artificial más potentes como el ChatGPT de OpenAI y se pongan de acuerdo en qué protocolos de seguridad deben tener en cuenta.

Yudkowsky expone una visión apocalíptica del mundo con la inteligencia artificial desarrollada: "Para visualizar una IA sobrehumana hostil, no imagine a un pensador sin vida que habita dentro de Internet y envía correos electrónicos mal intencionados. Visualice a toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada en los ordenadores [...] Una IA lo suficientemente inteligente no permanecerá confinada a los ordenadores durante mucho tiempo. En el mundo actual, usted puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a demanda, permitiendo que una IA inicialmente confinada en Internet construya formas de vida artificiales o pase directamente a la fabricación molecular postbiológica".

Yudkowsky, que fue descrito como un 'apocalítico de la IA' por Bloomberg, aboga por cerrar todas las grandes 'granjas' de grandes ordenadores en los que se refinan las IA más poderosas -centros llamados GPU- y limitar el poder de estos entrenamientos, incluso para los gobiernos y cuerpos militares. 

Si seguimos adelante con esto, todos morirán, incluidos los niños"

El investigador pide hacer seguimiento de todos estos centros que hayan sido vendidos y sugiere "hacer acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares. Si los servicios de inteligencia aseguran que un país ajeno al acuerdo está construyendo un GPU, hay que tenerle menos miedo a un conflicto armado entre naciones y que a que se viole la pausa del avance de la IA; hay que estar dispuesto a destruir un centro de datos mediante un ataque aéreo".

Por último, Yudkowsky pide no enmarcar el asunto en un "conflicto entre intereses nacionales": "Cualquiera que hable de carreras armamentísticas es un tonto". Asimismo, pide explicitar en la diplomacia internacional que "la prevención de escenarios de extinción de la IA se considere una prioridad por encima de la prevención de un intercambio nuclear".

"No estamos preparados. No vamos hacia estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños, que no eligieron esto y no hicieron nada malo", concluye la columna.

Estas palabras han creado un gran revuelo que ha obligado a Yudkowsky a matizar lo que quería decir con su misiva. A través de un comentario de Twitter, ha negado que sugiriera ataques nucleares a los países que se negaran a firmar un acuerdo contra el avance de la IA.

Mostrar comentarios

Códigos Descuento