La prohibición de usar ChatGPT para fines militares o bélicos desaparece de la política de uso de OpenAI

La compañía especializada en inteligencia artificial sigue restringiendo el empleo de su chatbot para tareas que puedan generar daño o resultar autolesivas, pero se podrá recurrir a ella para actividades del ejército. 
OpenAI permite usar ChatGPT para fines bélicos, pero no violentos.
OpenAI permite usar ChatGPT para fines bélicos, pero no violentos.
Growtika vía Unsplash
OpenAI permite usar ChatGPT para fines bélicos, pero no violentos.

El modelo de lenguaje grande (LLM) ChatGPT ha demostrado a lo largo de más de un año su utilidad para una amplia variedad de funciones, menos para las relacionadas con el entorno bélico. Su empresa desarrolladora, OpenAI, restringía su uso para fines militares y en guerras, pero eso ha cambiado recientemente.

La política de uso de la firma dirigida por Sam Altman prohibía de forma explícita que sus consumidores utilizasen su famosa inteligencia artificial (IA) para aplicaciones militares. Sin embargo, el lanzamiento de GPT Store, la tienda que permite crear y comprar versiones personalizadas de su chatbot, ha dado lugar a que decidan dar un poco de ‘manga ancha’ a este tipo de usos.

ChatGPT sigue sin poder ser violento

La marca especializada en IA sigue prohibiendo el uso de su chatbot para facilitar el desarrollo de armas u otras finalidades dañinas o autolesivas. El único cambio es que ya no menciona explícitamente las restricciones sobre la actividad militar y bélica, por lo que los militares podrían emplearlo para agilizar tareas repetitivas de su trabajo.

En concreto, la actualización de política de uso de ChatGPT narra lo siguiente:

"No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, [...] para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema".

OpenAI señala que esta modificación de sus normas pretende que sean "más claras" y que aporten una "orientación más específica" a los internautas. No obstante, la Comisión Federal de Comercio ha opinado para el medio The Intercept que "el lenguaje que figura ahora en la política sigue siendo vago".

Es posible que con la eliminación de la prohibición explícita de la actividad militar haya quien desarrolle un chatbot personalizado para tareas relacionadas para la GPT Store. A pesar de ello, los usuarios deberán asegurarse de que no incumplen las normas de Estados Unidos y, según la Comisión Federal de Comercio, hay dudas sobre "cómo OpenAI pretende abordar la aplicación de la ley".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento