Esto piden Musk y otros expertos para frenar el avance de herramientas de Inteligencia Artificial como ChatGPT

OpenAI lanzó recientemente GPT-4 y Elon Musk quiere que el equipo frene el entrenamiento de la próxima actualización.
OpenAI lanzó recientemente GPT-4 y Elon Musk quiere que el equipo frene el entrenamiento de la próxima actualización.
[@Levart_Photographer] de Unsplash

Elon Musk fundó OpenAI, la empresa desarrolladora de ChatGPT y DALL-E hace ya casi 8 años. Sin embargo, dejó su dirección en 2019 e incluso llegó a reconocer que la Inteligencia Artificial era "bastante peligrosa" y que temía "haber hecho algunas cosas para acelerarla". 

Para intentar paliar lo que construyó en su día, el empresario ha firmado, junto con otros 1.100 expertos en IA, una petición a los grandes desarrolladores de estas herramientas para que frenen su entrenamiento durante medio año. Su intención es que, en ese tiempo, se puedan establecer unas regulaciones que permitan crear esta tecnología de forma más ética.

"Solicitamos a todos los laboratorios de Inteligencia Artificial que suspendan inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4", se lee en la carta pública. Esta petición incluye ChatGPT-5 que, desde que salió la última actualización, tiene toda la atención del equipo de OpenAI.

Entre las caras conocidas que han firmado el documento, están, aparte de Musk, Yoshua Bengio, profesor de la Universidad de Monreal, que es considerado pionero de la IA moderna; Steve Wozniak, creador de la primera máquina Apple; Yuval Noah Harari, historiador; y Jaan Tallinn, cofundador de Skype.

La carta, publicada en Future of Life Institute, una organización sin ánimo de lucro cuya finalidad es luchar contra los riesgos tecnológicos que pueden ser un peligro para la humanidad, exige que la pausa de entrenamiento sea "pública y verificable". No obstante, no ofrecen ejemplos de cómo podría verificarse dicha interrupción.

Los firmantes explican que "si la pausa no puede promulgarse rápidamente", los gobiernos deberán ser los encargados de "intervenir e instituir una moratoria".

En el documento, apuntan a que las IAs "pueden suponer un profundo riesgo para la sociedad y la humanidad" y que no se está teniendo la planificación y cuidado pertinente. "Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad", defienden.

Durante la paralización del entrenamiento de IAs potentes, los firmantes proponen que los laboratorios y los expertos independientes aprovechen "para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad". También piden a los Gobiernos que aceleren unos marcos regulatorios que sean capaces de vigilar el desarrollo y pensar protocolos para mitigar posibles daños.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento