Ciencia

Siete tecnologías que ya resultan “indistinguibles” de la magia

Cámaras que ven detrás de las paredes, objetos que hablan y dispositivos que captan lo invisible o lo que pensamos. El futuro ya está entre nosotros, pero a veces es tan revolucionario que cuesta trabajo creerlo. Aquí tienes algunos ejemplos.

En 1962 el escritor de ciencia ficción Arthur C. Clarke escribió una de las máximas más conocidas sobre el avance científico: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Con ella pretendía expresar la diferencia tecnológica que podría haber entre distintas civilizaciones que se encontraran hipotéticamente en el universo, pero también describía el extrañamiento que produciría a un ser humano observar dispositivos que se manejan varias generaciones después. Este salto tecnológico se produce constantemente y en la frontera del avance científico hay progresos tan espectaculares que nos parecen imposibles. Estas son algunas de las tecnologías de visualización que ya parecen sacadas de la ciencia ficción.

1. Cámaras que ven detrás de las paredes

Imagina una cámara capaz de fotografiar objetos que quedan fuera del ángulo de visión. La tecnología ya existe, se llama femptofotografía y el equipo de Ramesh Raskar, en el MIT, la está utilizando para obtener información extra a partir de la luz que permita “ver detrás de las esquinas”. El sistema funciona mediante la emisión de pulsos de láser en intervalos extremadamente cortos, del orden de una milbillonésima de segundo (femtosegundo), lo que permite, con un complejo programa matemático, reconstruir el camino que ha recorrido cada fotón y la diferencia de tiempo con que ha llegado. Los fotones que analizan no son solo los que llegan de la escena que está delante, sino que obtienen información de los fotones que han rebotado en otros objetos, incluso los que no están a la vista. Las aplicaciones de este sistema podrían ir desde la biomedicinas (realizar endoscopias y observar zonas del cuerpo que normalmente permanecen ocultas) hasta sistemas de localización de obstáculos. Como explica Diego Gutiérrez, el investigador español que participa en estos trabajos, la NASA está muy interesada en esa cámara y está pensando en cómo utilizarla para fotografiar el interior de las cuevas de la Luna desde un satélite.

https://youtube.com/watch?v=JWDocXPy-iQ%3Fshowinfo%3D0

En materia de captura de imágenes no es el único avance espectacular. Las denominadas cámaras de un solo píxel pueden revolucionar los sistemas ópticos y en pruebas experimentales ya obtienen imágenes a través de medios turbios (equivalentes a ver a través de tejido o humo) e incluso en condiciones de casi completa oscuridad. La posibilidad de introducir múltiples sensores y la mejora de los sistemas de aprendizaje y procesamiento van a multiplicar la capacidad de las cámaras en los próximos años.

2. Los objetos te escuchan

El equipo de Abe Davis, también del MIT, ha diseñado un algoritmo que puede convertir cualquier objeto cotidiano en un micrófono. El sistema capta las pequeñas vibraciones en los objetos de una habitación - como las hojas de una planta o la superficie de una bolsa de patatas fritas - y permite utilizar esos datos para reconstruir el sonido que los ha producido a partir de un vídeo. Equipos anteriores habían demostrado la posibilidad de obtener sonidos mediante un sistema de láseres reflejados sobre la superficie que vibra y analizando la dispersión de la luz, pero Davis puede obtener sonidos a partir de imágenes silenciosas con luz ambiental y reconstruir la música o las palabras que estaban sonando en la escena. “Nos preguntamos a notorios mismos qué objetos serían buenos micrófonos visuales”, explica uno de los investigadores. “Resulta que los mejores son objetos como las bolsas de papel o de patatas o el papel aluminio, que son ligeros y un poco rígidos”. La mayoría de la gente, asegura Davis, piensa en aplicaciones para el espionaje cuando conoce el sistema, pero ellos están seguros de que se podrían hacer cosas que de momento ni se nos ocurren con esta tecnología.

https://youtube.com/watch?v=FKXOucXB4a8%3Fshowinfo%3D0

3. Tu cara no es tuya

Uno de los ámbitos en los que más se ha avanzado en los últimos años es en los programas de reconocimiento facial. Pero hay otra tecnología que se desarrolla en paralelo y que ofrece posibilidades inquietantes: la del intercambio de caras. Más allá de las aplicaciones de ‘face swap’ que todos hemos probado en el móvil y que han experimentado una evolución asombrosa en muy poco tiempo, un equipo de investigadores alemanes presentó hace dos años un sistema que permite manipular virtualmente la cara de otra persona a partir de un vídeo con su cara. El sistema FacetoFace consiste de una cámara que graba tu rostro y traslada tus gestos y palabras a la cara del otro individuo. En el ejemplo de demostración, los autores hacían hablar mediante este sistema a personajes famosos como George W. Bush o Arnold Schwarzenegger y el efecto era muy inquietante:

https://youtube.com/watch?v=ohmajJTcpNk%3Fshowinfo%3D0

Este mismo tipo de sistemas ha permitido recientemente que un grupo de usuarios de Reddit introdujera la cara de Nicolas Cage en películas sustituyendo a sus protagonistas. En su versión más oscura, esta técnica conocida como “deepfake” ha servido para sustituir la cara de actores y actrices en películas porno por la de personajes famosos, creando vídeos y gifs que algunas plataformas han empezado a eliminar de sus servidores. El asunto de fondo es la posibilidad que abre esta tecnología de generar vídeos con la cara de cualquiera que cada vez son mas difíciles de detectar como falsos.

4. Ver lo invisible

Otro de los desarrollos espectaculares del MIT es un software que permite detectar y realzar fenómenos invisibles al ojo humano, como los cambios en nuestra cara con las pulsaciones o las pequeñas variaciones en la estructura de un edificio. El equipo de Michael Rubinstein un programa de “amplificación euleriana” (EVM) que sigue las variaciones temporales de cada píxel y las amplifica, lo que puede servir para detectar el ritmo cardíaco en la cara de una persona y otros parámetros relacionados con la salud. Se ha especulado también con la posibilidad de incorporar este tipo de software a dispositivos como las Google Glass y detectar, por ejemplo, si una persona miente durante una partida de póker o un interrogatorio.

https://youtube.com/watch?v=kztqmhX-dpY%3Fshowinfo%3D0

5. Descubrir una imagen en la córnea

Los sistemas de inteligencia artificial y aprendizaje profundo están cambiando también las tecnologías de visualización. Recientemente, el equipo de Google Brain demostró que podía obtener imágenes detalladas a partir a partir de muestras con apenas unos píxeles de resolución. El resultado se consigue a partir de dos redes que trabajan en paralelo; una compara la muestra con un archivo con millones de fotos y la otra añade los detalles basándose en cálculos de probabilidad.

Reconstrucción de una imagen a partir de reflejo en la córnea

El equipo de Rob Jenkins, de la Universidad de Nueva York, también demostró hace unos años que era capaz de recuperar detalles que aparecen en los ojos de una persona fotografiadas, hasta el punto de poder reconocer caras. "Ampliando fotografías de caras en alta resolución", explicaban los autores, "hemos podido recuperar imágenes de acompañantes ocultos en los reflejos de los sujetos”. Con la potencia que tienen los sistemas de aprendizaje profundo, la posibilidad de descubrir a un sujeto oculto en la córnea de una persona fotografiada ya no es una ficción de series como CSI, sino que está al alcance de la mano.

6. Hablar sin emitir sonidos

El sistema visual no es el único que los científicos están tratando de descodificar mediante la tecnología. Algunos investigadores están explorando la posibilidad de saber lo que una persona está pensando no solo a partir de la actividad que se genera en el cerebro, sino a través de los pequeños movimientos que se producen en los músculos del cuello cuando pensamos en hablar. La NASA lleva años investigando en estos sistemas de “reconocimiento subvocal” para diseñar dispositivos de comunicación para sus pilotos, submarinistas y astronautas en condiciones en las que hablar produciendo sonidos se hace imposible. Mediante sensores colocados estratégicamente cerca de las cuerdas vocales, los investigadores están tratando de recoger una señal limpia que puedan traducir a palabras y ya están consiguiendo algunos avances. Hace unos años, el empresario y emprendedor Michael Calahan mostró públicamente cómo era capaz de usar un dispositivo en forma de banda alrededor del cuello para traducir los movimientos de su laringe a sonidos. Existen otras aproximaciones que buscan la señal en los movimientos de la boca y que podrían ser muy útiles en un futuro para personas con enfermedades que han destruido su capacidad de expresarse oralmente.

https://youtube.com/watch?v=23RxvetISac%3Fshowinfo%3D0

7. Robar imágenes de tu mente

El viejo sueño de leer la mente humana está un poco mas cerca gracias a la neurociencia. Como contamos en Next en su día, varios equipos de investigadores están intentando descifrar qué está pensando, soñando o imaginando el individuo a partir de su actividad neuronal. En la Universidad de Berkeleyhan desarrollado un programa que permite obtener una imagen de la cara que la persona está visualizando con solo analizar su actividad cerebral a partir de una serie de 300 fotografías. Para el trabajo, publicado en la revista Neuroimage,los investigadores grabaron la actividad neuronal de los voluntarios mientras visualizaban una serie de 300 fotografías de caras. Con los datos, enseñaron a un programa de ordenador a reconocer determinados patrones, como el sexo, la edad, el color de la piel o la expresión de su propietario.

IMAGEN

Por su parte, el equipo de Tomoyasu Horikawa  ha diseñado un sistema para intentar obtener información sobre lo que vemos en los sueños. Con una aproximación parecida, el investigador japonés registró la actividad cerebral de las personas mientras dormían y las despertaba periódicamente para saber qué veían. Cruzando los datos, lo único que consigue, por ahora, es predecir a qué categoría semántica pertenece el objeto con el que sueña el individuo: si sueña con comida, con otra persona, si la escena transcurre en un edificio o si es en la calle, pero confía en poder avanzar hasta conocer más detalles. Mientras, en la Universidad de Berkeley, Jack Gallant, quien demostró en la revista Current Biology en 2011 que tras analizar la señal cerebral de los sujetos mientras veían distintos clips de película era capaz de reproducir una pequeña copia de los patrones visuales principales. Al cruzar la información de la actividad cerebral, el programa de ordenador reproducía una especie de copia borrosa de lo que el individuo estaba viendo: 

https://youtube.com/watch?v=nsjDnYxJ0bo%3Fshowinfo%3D0

Apoya TU periodismo independiente y crítico

Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación Vozpópuli