Abuso robótico

PEPE CERVERA. EXPERTO EN TECNOLOGÍAOPINIÓN
Pepe Cervera, columnista de 20minutos.
Pepe Cervera, columnista de 20minutos.
20MINUTOS.ES

PEBKAC (problem exist between key-board and chair, hay un problema entre el teclado y la silla) era un viejo acróstico usado en foros y ficheros de configuración para avisar al siguiente técnico de que revisara el sistema de la verdadera causa de cualquier mal funcionamiento: el usuario. Como cualquier informático de servicio técnico sabe, la inmensa mayoría de las averías y fallos de funcionamiento no está en el hardware ni en el software, sino en el wetware (componentes húmedos); es decir, en el infeliz usuario del sistema. A veces porque el interfaz está mal diseñado y confunde a quien lo utiliza, dificultando que comunique adecuadamente sus intenciones; otras veces por desconocimiento o torpeza. Pero también a menudo por otras razones menos justificables, como la vagancia, la estulticia o la simple maldad. Entendida esta última como el deseo de ahorrarse trabajo sin parar en consecuencias, aunque puede también surgir una cierta vena saboteadora. Esta última puede ser mucho más importante de lo que pensamos en nuestras futuras interacciones con los productos de la Inteligencia Artificial o la Robótica. Y un buen ejemplo está en los problemas que van a causar, mañana mismo, los coches autónomos en las ciudades. Por culpa del abuso del usuario.

Cuando pensamos en abuso robótico, tendemos a pensar en Terminator: máquinas más rápidas, fuertes o listas que imponen su voluntad a los pobres humanos. Pero lo cierto es que a maldad y mala baba a los humanos es difícil ganarnos, y los primeros problemas de abuso robótico van a ir en la otra dirección: personas abusando de robots. Por desagrado ante su presencia, por oposición metafísica a su existencia o por simple echarse unas risas, es probable que las gentes que interactúen con robots a poco que puedan les hagan perrerías: al fin y al cabo lo hacemos con nuestras mascotas e incluso con nuestros niños. A la hora de diseñar nuestros robots, tendremos que tener en cuenta esta característica forma de crueldad de baja intensidad tan típica de los humanos, para que no tenga consecuencias peores. Un estudio sobre la interacción de coches autónomos y peatones que acaba de publicarse avisa: los peatones abusarán, siempre, de los pobres autos robot.

La navegación en un entorno complejo como son las calles de una ciudad es una especie de coreografía que, como la buena danza, es un acto de comunicación continua: peatones y conductores revisan las acciones de los otros peatones y conductores e interpretan sus intenciones, que ellos utilizan para realizar su propia señalización y tomar sus propias decisiones. Esta conversación múltiple incorpora datos procedentes de todos los participantes, e incluye la evaluación de la probabilidad de que esos participantes mientan sobre lo que van a hacer. Así es como tomamos la decisión de cruzar o no cruzar, de acelerar o de frenar, de adelantar o no al autobús: en función de la información obtenida. Diferentes ciudades tienen incluso códigos distintos, lo que explica que quien está acostumbrado a conducir en una urbe puede tener dificultades cuando conduce en otra.

Una parte clave de todo este proceso es estimar lo que el otro (conductor, o peatón) hará o no hará; siempre hay un elemento de indecisión que hay que tener en cuenta. Pero cuando se trata con un coche autónomo ese elemento desaparece: el coche robot siempre frenará en caso de choque potencial, y el peatón lo sabe. De modo que será muy sencillo para los aguerridos humanos a pie de una ciudad como El Cairo, Estambul o Nueva York imponer su propia ley sobre los coches autónomos, ya que la duda desaparece: se podrá ‘abusar’ de ellos con impunidad. La legislación y la realidad de los seguros impondrán que los programas de los coches autónomos siempre intenten preservar a toda costa la integridad física de los peatones. Y eso les dará ventaja a los humanos, ventaja de la que abusarán con certeza. Lo mismo ocurrirá en las interacciones con inteligencias artificiales y equivalentes: las programaremos para que las personas siempre lleven las de ganar, y eso provocará que haya quien abuse de ellas. Porque la seguridad se puede programar, pero la maldad (y la capacidad de responder a ella) queda fuera de la ciencia informática. Pobres robots; no saben lo que se les viene encima.

Mostrar comentarios

Códigos Descuento