Los creadores de ChatGPT tienen un detector de imágenes generadas por inteligencia artificial con un 99% de precisión

OpenAI ha detallado que su sistema todavía se está probando internamente antes de lanzarlo al público general, pero, de ser cierta su promesa, sería más fácil evitar caer en fake news con ilustraciones falsas. 
OpenAI ha creado una herramienta para detectar imágenes creadas por IA.
OpenAI ha creado una herramienta para detectar imágenes creadas por IA.
Sketchify / Iconsy vía Canva.com / Montaje: 20Bits
OpenAI ha creado una herramienta para detectar imágenes creadas por IA.

La inteligencia artificial ya no es algo ajeno al consumidor medio de Internet. Desde que se lanzó ChatGPT-3 en noviembre del año pasado, son muchos los usuarios que utilizan esta u otras herramientas basada en tecnología entrenada con aprendizaje profundo en su día a día. Sin embargo, hay riesgos que estos sistemas pueden generar y que están comenzando a preocupar a la población. Por suerte, ya se está trabajando en soluciones al respecto.

Además del modelo de lenguaje grande (LLM) ChatGPT, la empresa especializada OpenAI también tiene un generador de imágenes artificiales llamado DALL-E. (Si eres uno de los españoles que está usando el modo chat de Bing para crear portadas al estilo Disney Pixar para subirlas a redes sociales, debes saber que es justo este sistema el que está detrás de que puedas hacer eso).

Los resultados de DALL-E pueden ser asombrosamente realistas y esto es algo que ya estaba pasando con Midjourney y que hace saltar la alarma a los expertos y no tan expertos. La idea de que una ilustración creada por IA pueda parecer una fotografía invita a pensar en posibles fake news que sean muy difíciles de verificar y se terminen dando como ciertas.

OpenAI quiere evitar que las imágenes de DALL-E puedan dar lugar a confusión y propicien la desinformación y, por ello, aseguran que han creado un detector que cuenta con una precisión del 99%. Esta herramienta podría solventar uno de los grandes problemas que suponía el avance en IA y, además, iría encaminada a cumplir con la normativa que la Unión Europea quiere implementar.

OpenAI Claims, el detector de imágenes generadas por Inteligencia Artificial

La firma detrás de DALL-E y ChatGPT ha informado este martes que está trabajando en OpenAI Claims, un detector de imágenes generadas por IA que tiene una precisión de casi el 100% (concretamente dicen que es un "99% confiable").

De momento, han notificado que están probándola todavía de forma interna, pero que tienen la intención de lanzarla al público. Aún no han dicho la fecha en la que estará disponible, sin embargo, demuestra el compromiso de la marca por desmarcarse del pensamiento de que la IA podría convertirse en un nido de bulos en Internet.

La propuesta de Ley sobre Inteligencia Artificial de la Unión Europea

La Comisión Europea redactó una propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de Inteligencia Artificial. Es la conocida como la Ley de IA, que todavía no ha sido aprobada, pero que tendrían que apresurarse para seguir el ritmo de los avances que se están llevando a cabo en el sector. 

En ella, se mencionan los riesgos que pueden derivar del uso de herramientas de IA y abordan que las compañías deberán cumplir con unos requisitos de transparencia. Por ejemplo, pedirán revelar cuando el contenido haya sido generado por IA, que los modelos estén diseñados para evitar generar contenidos ilegales y prohibirá que se puedan hacer resúmenes de los datos protegidos por derechos de autor.

Con OpenAI Claims, será más sencillo cumplir con las normas que podrían formar parte de la legislación europea. Además, también servirá para otras leyes que regulan o regularán este contenido artificial, como China, que en julio se convirtió en el primer país en aprobar una normativa al respecto. 

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento