Cuando un ser humano realiza una tarea aparentemente sencilla como coger y levantar un vaso de la mesa, su cerebro está integrando información sensorial procedente de varias fuentes. Por un lado está la información táctil del brazo y la mano, el sentido de propiocepción que le dice dónde están en cada momento, y lo que le dicen los ojos sobre la posición de cada objeto y su propio cuerpo. Hasta ahora, las prótesis que se diseñan para ayudar a personas con problemas de movilidad son “ciegas”, pero ¿y si incorporáramos en el dispositivo información visual que sirviera para predecir y mejorar los movimientos?
Este es el avance que presenta este jueves el equipo de investigadores surcoreanos, liderados por Sungho Jo y Kyu-Jin Cho en la revista Science Robotics, a través de un artículo en el que detallan el funcionamiento de un guante inteligente, denominado Exo Glove Poly II, que permite al usuario integrar información que llega a través de unas gafas con una minicámara y procesarla mediante un algoritmo de aprendizaje automático (“machine learning”) que le ayuda a predecir los movimientos y mejorar la respuesta. Se trata de una neuroprótesis pensada para usuarios con lesión medular que han perdido o han visto disminuida la movilidad de sus manos pero aún pueden mover los brazos. El dispositivo, según sus autores, permite realizar tareas tan esenciales para la vida cotidiana de las personas como coger objetos o beberse una taza de café sin ayuda externa.
El dispositivo permitiría realizar tareas como beberse una taza de café sin ayuda
“Esta tecnología pretende predecir las intenciones del usuario, especialmente la intención de atrapar y soltar un objeto, mediante el uso de una cámara de visión subjetiva montada en unas gafas”, explican los autores. “VIDEONet, un algoritmo basado en el aprendizaje profundo, está diseñado para predecir lo que hará el usuario a partir de lo que capta la cámara y basándose en el comportamiento de su brazo y la interacción entre la mano y los objetos”. La intención de sus creadores es conseguir compactar aún más los equipos, para hacer la tecnología más fácil de usar, e incorporar otras fuentes de información, como un sensor de movimientos musculares o un sistema de monitorización de la mirada. “Esta tecnología”, concluyen, “puede ser usada por cualquiera que haya perdido movilidad de las manos, por una lesión medular, un infarto cerebral, una parálisis u otras lesiones, siempre que puedan mover sus brazos de forma voluntaria”.
Referencia: Eyes are faster than hands: A soft wearable robot learns user intention from the egocentric view (Science Robotics)