Creo que a estas alturas todos coincidimos en que el trabajo del futuro va a ser muy diferente al actual. Alejándonos de la idea de que experimentemos un “Robocalipsis”, es decir, que los robots, otras máquinas o el software nos robarán el empleo, sí es cierto que una gran parte de las ocupaciones del mañana puede no reconocerse con los parámetros actuales. Además, este cambio va a afectar a un espectro cada vez mayor de empleos, a diferencia de lo acaecido en episodios anteriores, ya sean más o menos recientes. Si hasta hace no pocos años era el empleo rutinario quien más fue afectado - simplemente gran parte de este ha acabado desapareciendo- la nueva ola tecnológica, tanto con robots más “inteligentes” y sobre todo baratos como por el boom de la inteligencia artificial, va a ensanchar el frente de batalla entre trabajadores y máquinas. Esta nueva ola va a llegar y ninguno quedaremos indiferentes a ella.
Dejando a un lado la automatización de tareas más o menos rutinarias por los ya viejos y conocidos robots, y que continuará en los siguientes años, la gran protagonista de la nueva ola de automatización será la inteligencia artificial (IA) y cuya importancia actual viene motivada por un boom en su desarrollo. Las razones que han provocado este boom en los últimos años han sido, al menos, tres. En primer lugar, los avances en la programación que permiten, entre otras muchas cosas, el reconocimiento de patrones más allá de la capacidad que el ser humano puede permitirse. Estos avances han sido posibles gracias al trabajo de numerosos científicos, pero en especial al de Yann LeCun. En segundo lugar, gracias al trabajo de, entre otros, Geoffrey Hinton por el que tras muchos años de investigación el aprendizaje autónomo de las máquinas es una realidad. Pero, en tercer lugar, y quizás para mí más determinante, pues sin este avance no es posible que la IA adquiera ventaja comparativa a ojos de los mercados, es el incremento exponencial de la capacidad de computación de los ordenadores, tanto porque esto facilita la capacidad de cálculo de las máquinas, así como del aprovechamiento de las cada vez mayores e ingentes cantidades de datos necesarias para alimentar a la bestia. Este avance se lo debemos a multitud de investigadores, pero habría que destacar a Andrew Ng pionero en el aprovechamiento de la potencia disponible de los actuales ordenadores en el campo de la IA.
La próxima vez que le digan que su trabajo ya no va a ser lo mismo, piense que la culpable puede ser una tarjeta gráfica
¿Qué es lo que ha permitido este aumento en la capacidad computacional de los ordenadores? A muchos rápidamente su mente les llevará a la famosa Ley de Moore. Según esta, la capacidad de procesar datos y hacer cálculos de los procesadores de los ordenadores se ha multiplicado cada cierto número de meses en los últimos 50 años, de tal modo que la capacidad de computación de un ordenador de hoy es abismalmente superior al de uno existente no hace más de cincuenta años. Por ejemplo, un IPhone 6 tiene una capacidad de computación 120 millones de veces más elevado que la del ordenador que llevó al hombre a la Luna. Pero no solo la Ley de Moore explica este boom. En apenas 10 años ha habido otro avance quizás más importante: el uso para la IA de las tarjetas gráficas de ordenadores.
La GPU es la unidad de procesamiento gráfico de un ordenador y que, junto con la CPU, unidad central de procesamiento, conforman el cerebro del mismo. Mientras la segunda se dedica a realizar las operaciones generales del ordenador, es decir, los cálculos mediante el uso de un lenguaje binarios gracias a los millones de “transistores” incluidos en ella, la GPU tiene una labor mucho más específica, más concreta, más especializada. Desde la primera de las GPUs, estas tarjetas han dedicado su labor a construir en nuestras pantallas de ordenador o consolas los gráficos necesarios para, por ejemplo, los videojuegos. Esto le otorga cierta optimización en su tarea, lo que resulta a la larga muy relevante. Mientras la CPU dispone de una arquitectura que le permite trabajar en serie, encargándose de realizar cómputos complejos a frecuencias de reloj elevadas (muchas operaciones por segundo, pero una tras otra), la GPU dispone de una arquitectura optimizada para la realización de gráficos, siendo mucho más eficiente en esta labor que la CPU y por ello descargando a esta de unos cómputos sencillos pero numerosos y por ello tediosos. El trabajo de la GPU, a diferencia de la CPU, es en paralelo, lo que le permite realizar muchas operaciones teóricamente rutinarias, pero con una gran eficiencia.
Los grandes protagonistas de la nueva ola de automatización serán la inteligencia artificial (IA) y el incremento exponencial de la capacidad de computación de los ordenadores
Para entender la diferencia entre ambos tipos de procesadores, en un vídeo disponible en Youtube se explica de un modo muy divertido e intuitivo. En este video, Adam Savage y Jamie Hyneman, los famosos Cazadores de Mitos de la cadena Discovery Channel, explican a un público entregado la diferencia en el modo de trabajar de la CPU y la GPU. En un primer lugar, disponen en un escenario un pequeño vehículo móvil que dispara por un pequeño cañón bolas de pinturas, de las mismas que se suelen usar en los juegos de paintballs. Con esta máquina, que dispara una bola cada vez y a través de un solo cañón, consiguen pintar sobre una pared blanca, que hace las veces de diana, una cara de emoticono, en este caso una cara que sonríe. Al ser las bolas similares unas a otras, la cara es monocromática y realmente sencilla. A continuación, presentan una nueva máquina llamada Leonardo y mucho más grande por las razones obvias que entenderán. Esta máquina posee varios tanques donde almacena una gran cantidad de bolas de pintura de colores diferentes. Cada grupo de color se almacena en tanques separados. De cada uno de estos tanques salen un gran número de tubos que finalmente desembocan en un número similar de cañones por los que saldrán cada una de las bolas disparadas. La ventaja de Leonardo, frente a la anterior máquina, es que esta puede disparar centenares de bolas a la vez, así como de diferentes colores. Cambiando las conexiones de los tanques con los cañones, es posible modificar el patrón de disparo y por ello el dibujo que se logrará en la pared que reciba los impactos. El ejemplo que Savage y Hyneman llevan a cabo frente a los espectadores es pintar con un solo disparo una reproducción del cuadro de Leonardo Da Vinci: la Mona Lisa. Como la máquina puede disparar a la vez por todos y cada uno de sus cañones, la representación de la Mona Lisa se logra en apenas unas décimas de segundo. Esta sería la diferencia de la CPU con la GPU.
Pero la verdadera innovación para el desarrollo de la IA no es la invención de las GPUs, ni siquiera la mejora de su capacidad de cálculo. La verdadera innovación ha sido su uso para corresponder a las necesidades de la IA. Así, esta potencia de cálculo y de acción ha excedido su propósito inicial y en la actualidad se utiliza no solo para el desarrollo gráfico de los ordenadores, sino también para otras tareas, como son las aportaciones que, o bien exigen enormes cálculos, o bien necesitan de una gran cantidad de datos para poder producir un output final. La carrera iniciada con la aplicación de las GPUs a la IA se ha visto continuada por la construcción de nuevas unidades de circuitos integrados que mejoran incluso el rendimiento de las tarjetas gráficas, como es el caso de la TPU (unidades de procesamiento de tensor) de Google.
Un IPhone 6 tiene una capacidad de computación 120 millones de veces mayor que la del ordenador que llevó al hombre a la Luna
Gracias al Big Data por un lado, a la creación de algoritmos, redes neuronales y un software muy especializado, tenemos correctores de texto, máquinas que predicen el tiempo, la contaminación o que pueden regular el tráfico. Tenemos aplicaciones que reconocen caras en nuestro álbum de fotos, o que nos guían a nuestro trabajo desde el móvil. Tenemos aplicaciones que nos ofrecen listas de reproducción de música acorde con nuestro perfil. O tenemos algoritmos que son capaces de ganar al mejor jugador del mundo de ajedrez con solo 24 horas de aprendizaje. Pero para que todo ello haya sido una realidad ha sido necesario alimentar a la bestia y que esta compute muy rápidamente. Sin esto, todo lo demás no tiene utilidad, no tiene valor. Ya lo sabe, la próxima vez que le digan que su trabajo ya no va a ser lo mismo, piense que la culpable puede ser una tarjeta gráfica. Ya no verá un videojuego con los mismos ojos, seguro.
(Agradezco a Carlos Cantón Marín sus comentarios a este texto.)