Por mucho que se avanza en los sistemas de Inteligencia Artificial, la capacidad de aprendizaje de los humanos parece un límite inalcanzable. Mientras a nosotros nos bastan un par de ejemplos para comprender un concepto, las máquinas suelen necesitar cientos de muestras y comparaciones para alcanzar el mismo objetivo. El equipo de Brenden Lake presenta esta semana en la revista Science un nuevo sistema que parece haber superado esa barrera infranqueable. Su algoritmo es capaz de imitar la forma en que nosotros asimilamos conceptos y aprender durante el proceso.
El sistema es capaz de "aprender a aprender"
Para simplificar la tarea, los investigadores se centraron en enseñar al sistema a reconocer y reproducir letras y símbolos escritos a mano de diversas lenguas de todo el mundo. La idea era conseguir un primer objetivo sencillo: que la máquina aprendiera a distinguirlos y sacara conclusiones sobre cómo debían trazarse esos caracteres sobre un papel. Los científicos han bautizado el algoritmo como Programa de Aprendizaje Bayesiano (BPL, por sus siglas en inglés) y lo pusieron a prueba con 1.600 tipos de caracteres manuscritos de 50 de los sistemas de escritura humanos, desde el sánscrito, al tibetano, el gujarati e incluso caracteres de ficción como los extraídos de la serie Futurama. La clave de su funcionamiento es que el algoritmo se programa a sí mismo para reproducir la letra que ve y el modo óptimo de realizar su trazado. El modelo es capaz incluso de "aprender a aprender", dicen sus autores, puesto que utiliza el conocimiento previo para entender nuevos conceptos de forma más rápida (por ejemplo: usa lo que sabe sobre el alfabeto latino para aprender las letras del alfabeto griego).
https://youtube.com/watch?v=zkb1MbdEcBE
Tras obtener los primeros resultados, los científicos compararon el rendimiento de su sistema con otros sistemas de aprendizaje en Inteligencia Artificial y sometieron al algoritmo a una especie de test de Turing por el cual varios humanos juzgaban a ciegas si el trazado de las letras a mano estaba siendo realizado por una persona o un ordenador. Lo que vieron los científicos fue que solo un 25% de los jueces fue capaz de predecir correctamente quién era el autor mejor que el puro azar. "Nuestros resultados muestran que haciendo ingeniería inversa sobre cómo piensa la gente sobre los problemas podemos desarrollar algoritmos mejores", asegura Lake, que trabaja en la Universidad de Nueva York. "Además", añade, "este trabajo apunta métodos prometedores para mejorar otras tareas de aprendizaje de máquinas".
"Ha sido muy complicado construir máquinas que requieran tan pocos datos como los humanos para aprender un concepto", dice Ruslan Salakhutdinov, coautor del estudio. "Replicar estas habilidades es un área de investigación emocionante que conecta el aprendizaje de máquinas, estadísticas, visión por computador y ciencias cognitivas". "Antes de que ir a la guardería los niños aprenden nuevos conceptos a partir de un solo ejemplo, y pueden incluso imaginar ejemplos que no han visto", señala Joshua Tenenbaum, que participa en la investigación desde el MIT. Estamos todavía lejos de construir máquinas tan listas como un niño humano, pero ésta es la primera vez que hemos hecho una máquina capaz de aprender y usar una gran variedad de conceptos del mundo real - incluso sencillos conceptos visuales como caracteres manuscritos- de una forma que es difícil de distinguir de la de los humanos".
Referencia: Human-level concept learning through probabilistic program induction (Science)