¿Cuáles son las siete predicciones nefastas sobre las herramientas de inteligencia artificial?

Inteligencia Artificial
Un experto recalcó a finales de 2022 que GPT-4 todavía no sería esa inteligencia artificial general de la que algunos hablaban.
Getty Images/iStockphoto
Inteligencia Artificial

Los resultados que estamos viendo de herramientas con inteligencia artificial son solo el principio de lo que el futuro de esta tecnología puede darnos. Pese a que se encuentre en una etapa incipiente, hay expertos que temen que la no regulación y el avance cada vez más acelerado suponga graves riesgos.

Gary Marcus, un experto en IA y profesor en la Universidad de Nueva York, hace seis meses, cuando ChatGPT todavía estaba dándose a conocer, pronosticó lo que podía ocurrir con esta tecnología. Sus ideas podían parecer descabelladas o muy lejanas y algunos lo consideraron un "loco" o un "alarmista".

Tras medio año de la publicación, sus ideas parecen más cercanas y posibles. Marcus ha aprovechado que ahora sí que se le toma más en serio para hablar en la BBC de la recopilación de sus "siete predicciones nefastas" sobre el futuro de ChatGPT o herramientas similares.

Los sistemas de lenguaje grande, según Marcus

  • La última versión de ChatGPT (GPT-4) lo define como un “toro en una tienda de porcelana, imprudente y difícil de controlar”. Él cree que esto dará lugar a que cometa "una cantidad significativa de errores alucinantes, en formas que son difíciles de predecir". Esto podría dar lugar a un "ambiente de posverdad" donde la democracia difícilmente tenga cabida. 
  • El razonamiento sobre el mundo, psicológico y matemático, seguirá siendo poco confiable. Con GPT-4, se podrán resolver dudas específicas usando puntos de referencia anteriores, pero con torpeza. Sin embargo, no se podrá usar para consejos médicos.
  • La idea de que los LLM se empleen para crear información errónea que suene realista. Se crearán límites, pero los ciberdelincuentes podrán replicar GPT-4 para formar versiones similares sin barreras de seguridad.
  • Los que usen GPT-4 para implementar a sus sistemas obtendrán resultados que no siempre serán predecibles. Esto puede ser un problema para, por ejemplo, asegurarse de que un asistente virtual interactúe con el usuario de forma entendible en su idioma.
  • GPT-4, por sí solo, no puede asumir tareas arbitrarias de manera general confiable. Por poner un ejemplo, no se podrá usar para materia legislativa, a no ser que se apliquen sistemas especializados. Por lo tanto, Marcus únicamente valora que es una buena herramienta para realizar una lluvia de ideas o para un primer borrador.
  • Va a ser complicado que los intereses de los humanos y lo que hacen las máquinas sean los mismos. 
  • Los LLM como ChatGPT no se pueden considerar inteligencia artificial general, sino que solo son una pequeña parte para llegar a eso. Marcus apunta que la IA general sí que será realmente confiable y alineada a los valores humanos.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento