Ciencia

El español que quiere darle un cuerpo a la Inteligencia Artificial

Pablo Lanillos trabaja en el desarrollo de robots que aprendan a interactuar con el mundo como lo hacemos nosotros. Conseguir que reconozcan sus movimientos en el espejo es solo el primer paso.

¿Se puede reconocer un androide en un espejo? Y si es así, ¿significa que tiene consciencia? ¿Qué utilidad tiene que lo consiga? Estas y otras preguntas asaltaron al investigador español Pablo Lanillos hace unos años mientras tomaba un café con un psicólogo cognitivo en la Universidad de Leiden en el descanso de unas conferencias. Desde entonces decidió enfocar su carrera en abordar la cuestión y desarrollar modelos de software que permitan a los robots autoreconocerse, el primer paso para una verdadera interacción autónoma con el entorno. “No hay inteligencia sin cuerpo”, asegura Lanillos a a Next. “Para nosotros hacer una inteligencia artificial que no tiene cuerpo no tiene ningún sentido, porque al final lo que nos da inteligencia es la capacidad de interactuar con el mundo. Quiero robots que no sean un Skype con ruedas”.

En colaboración con la empresa española PAL Robotics, Lanillos ha presentado un modelo de robot humanoide que es capaz de reconocer sus movimientos en el espejo, a partir de un modelo matemático basado en el funcionamiento del cerebro humano. Tiago, como han bautizado al androide, se coloca delante del espejo y mueve el brazo de un lado a otro. En función del feedback visual que recibe, el robot decide si lo que está viendo es él. De lo contrario, el error se convierte en un mensaje muy claro: “eso no soy yo”.

Tiago no es el primer robot en “reconocerse” en el espejo. En 2012 el robot Nico del Instituto Tecnológico de Massachusetts (MIT) fue el primero en alcanzar este hito. Pero las estrategias que han seguido ambos equipos son sustancialmente distintas. “En el caso del MIT, el robot hace inferencias bayesianas”, explica Lanillos. “Si se mueve cuando yo le diga que se mueva todo lo que se mueva soy yo, y según va observando más movimientos acumula más evidencia”. Su aproximación, en cambio, se basa en un modelo de inferencia activa anticipado por el físico alemán Hermann von Helmholtz en el siglo XIX, quien describió el cerebro como un sistema que está continuamente deduciendo y reconstruyendo el mundo que le rodea a partir de información parcial que recibe de los sentidos. “Tú tienes en el cerebro un modelo”, explica Lanillos. “Generas una hipótesis sobre el mundo, y si lo que observas se parece inhibes esa observación. De lo contrario, se genera un error que puedo utilizar para cambiar dónde está mi cuerpo o, si el error es muy grande , comprender que eso no eres tú”.

“Los robots actuales son menos hábiles que un niño de seis meses, y de ahí queremos partir”

A diferencia del robot del MIT, esto ya no es solo un problema de movimiento-no movimiento, sino un sistema de validación de un modelo y un proceso de aprendizaje. Es, además, la primera vez que la percepción y la acción forman parte de una sola entidad y un mismo proceso dentro del algoritmo. En modelos anteriores, explica Lanillos, hay un algoritmo para lo que el robot ve y otro para el del movimiento, “aquí todo forma parte del mismo proceso y está todo mezclado”.

El objetivo es que el robot integre la información sensorial y entienda que si algo no es él, es otro ente, y podría ser otra persona, con las implicaciones que tiene esto de cara al futuro en la interacción de la Inteligencia Artificial con seres humanos. “Cuando somos pequeños no distinguimos entre nuestro cuerpo y el de otra persona, cuando una persona mueve el brazo delante de ti es lo mismo que si lo mueves tú”, recuerda Lanillos. “En interacción y adaptación, los robots actuales son menos hábiles que un niño de seis meses, y de ahí queremos partir. Es como darle una pequeña cualidad que los humanos tienen, pero todavía quedan muchas capas por completar”.

Pablo Lanillos trabaja desde hace tres años en el Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Munich (TUM), en Alemania. Se doctoró en Inteligencia Artificial por la Facultad de Informática de la Universidad Complutense de Madrid y ha trabajado en el MIT, en la Escuela Politécnica de Lausanne y en el Centro de Robótica de la Universidad de Sídney entre otros lugares. Uno de los primeros pasos que dio en este campo de integración sensorial en la IA, fue crear un modelo matemático para replicar en un robot la ilusión de la mano de goma, uno de los experimentos más famosos de psicología que explica lo fácil que es alterar la percepción de nuestro cuerpo. Al igual que en nosotros, el humanoide del experimento estimaba que su brazo estaba desplazado si se le sometía a un estímulo visual (el brazo de goma que se hacía pasar por el suyo) combinado con la señal de otros sensores.

El experimento de la ilusión de la mano de goma realizado con robots

Todo esto que tiene apariencia de juego tiene en realidad una gran trascendencia si queremos dotar a los robots en algún momento de verdadera autonomía. El experimento del espejo y el de la mano de goma no demuestran, ni de lejos, que el robot posea ya una consciencia, pero son el primer paso de una aproximación diferente y muy prometedora a este asunto. “No sé si llegaremos a algo tan complejo como las consciencia, pero sí creo que podemos llegar a que un robot llegue a entender lo que es la agencia”, explica el investigador. “Es decir, a identificar quién está detrás de una acción”. Esto tendrá una gran trascendencia cuando sistemas automatizados, como coches autónomos y otros dispositivos, interacciones con los humanos y deban distinguir entre lo que han provocado ellos y lo que están haciendo los demás. Por no hablar de las posibles aplicaciones de estos avances para prótesis que permitan usar esta integración de la información en beneficio del usuario.

“Creo que podemos llegar a que un robot llegue a entender lo que es la agencia”

Es más fácil entender el mundo si de antemano sabes qué es tu cuerpo, si sabes que tu mano está ahí, ya tienes algo básico antes que te ayuda a interactuar con el mundo”, insiste Lanillos. La evolución de la consciencia en la naturaleza partió básicamente de ahí, de la necesidad de coordinar la información sensorial para poder ejecutar acciones, de modo que esta aproximación es más coherente con cómo apareció esta capacidad en nosotros que las que intentan reproducirlo programando cada posible respuesta.

Este sistema permite, además, la adaptación y aprendizaje del sistema, aunque aún está lejos de distinguir, por ejemplo, entre un auténtico espejo y un robot que se coloca en frente y repite sus movimientos. “La idea es que en el futuro estos dispositivos tengan un montón de sensores y sean capaces de integrar toda esa información para generar el modelo de su cuerpo, lo que va a abrir muchísimas puertas”, sentencia Lanillos. “La tecnología está aquí, solo nos falta potencia de cómputo, no estamos tan lejos de esa fusión sensorial que es la que busco yo”.

Apoya TU periodismo independiente y crítico

Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación
Salir de ver en versión AMP