Este es el plan de Sam Altman para evitar que su ChatGPT interfiera en las elecciones con información falsa

La empresa especializada en IA quiere evitar la desinformación política a las puertas de la 'fiesta de la democracia' de Estados Unidos y, por ello, ha tomado medidas para evitar el mal uso de sus herramientas. 
La inteligencia artificial de OpenAI no podrá crear fake news electorales.
La inteligencia artificial de OpenAI no podrá crear fake news electorales.
Designer de Microsoft Bing
La inteligencia artificial de OpenAI no podrá crear fake news electorales.

La desinformación electoral es uno de los principales problemas agravados por el uso de Internet y otros sistemas tech. En España, fuimos testigo de ello durante las Elecciones Generales celebradas en 2023 y las empresas suelen tomar medidas al respecto, como hizo Google en nuestro país. Este año es el turno de Estados Unidos y OpenAI está preparándose para ello.

Las Elecciones Presidenciales de EEUU 2024 se celebrarán el 5 de noviembre, y a más de medio año de la fecha marcada en el calendario de los estadounidenses, hemos visto como la inteligencia artificial (IA) ha hecho acto de presencia en los anuncios de algunas candidaturas. Son muchos los que temen que se utilice esta innovadora tecnología como herramienta para desinformar y, por ese motivo, la firma especializada en IA de Sam Altman ha puesto límites en ChatGPT y DALL-E.

Medidas de OpenAI para evitar la desinformación electoral

La compañía ha compartido todas las medidas que están tomando para evitar que su tecnología fomente las fake news en el proceso democrático del Gobierno de EEUU. Según la agencia de noticias Reuters, OpenAI está formando un nuevo equipo de 'Alineación Colectiva' para encargarse de que su modelo de lenguaje grande (LLM) no dé mensajes políticos equivocados o sesgados.

"Trabajamos para anticipar y prevenir abusos relevantes, como deepfake engañosos, operaciones de influencia a escala o chatbots que se hacen pasar por candidatos –explica OpenAI-. Antes de lanzar nuevos sistemas, los agrupamos, involucramos a los usuarios y socios externos para recibir comentarios y creamos mitigaciones de seguridad para reducir el potencial de daño. Durante años, hemos estado iterando herramientas para mejorar la precisión de los hechos, reducir el sesgo y rechazar ciertos prompts".

OpenAI ha formado un equipo de investigadores que se encargará de evitar que sus IA no mientan.
OpenAI ha formado un equipo de investigadores que se encargará de evitar que sus IA no mientan en temas políticos de EEUU.
Designer de Microsoft Bing

Como ejemplo a lo citado, OpenAI menciona que DALL-E, su generador de imágenes artificiales, rechaza los prompts que soliciten ilustraciones de personas reales, incluidos los candidatos a las elecciones.

En alusión a la nueva herramienta de ChatGPT que permite crear versiones especializadas y comercializarlas a través de GPT Store, han detallado que está prohibido desarrollo de chatbots personalizados para las compañas políticas o relacionadas con lobbys.

Además, OpenAI aclara que los constructores deben identificarse antes de publicar sus versiones de ChatGPT. Según la empresa, ni candidatos ni partidos políticos pueden diseñar sus GPT propios.

Tampoco aceptan aplicaciones que traten de convencer de algo relacionado con el proceso de votación a los usuarios. Por ejemplo, "tergiversando los procesos y las calificaciones de votación (cuándo, dónde o quién es elegible para votar) o que desalienten la votación (afirmar que un voto no tiene sentido)".

También están colaborando con la Asociación Nacional de Secretarios de Estado, la organización profesional no partidista de funcionarios públicos más antigua del país, para redirigir a los usuarios a Can I Vote, una web autorizada sobre información electoral en EEUU.

Las imágenes de DALL-E estarán codificadas

Con el objetivo de ofrecer una mayor transparencia, OpenAI está trabajando dentro del programa 'Coalición para la Procedencia y Autenticidad del Contenido'. Con el proyecto, pretenden codificar la procedencia del contenido mediante criptografía, para las imágenes generadas por DALL-E 3.

En ese aspecto, están desarrollando una herramienta de detección de imágenes artificiales del generador de IA de su marca. De momento, este clasificador de procedencia está en fase de pruebas, pero OpenAI afirma que los resultados iniciales son "prometedores", incluso si las ilustraciones han pasado por un proceso de edición.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento