Durante las próximas décadas nos veremos rodeados cada vez más por autómatas que faciliten nuestra vida diaria. Comprender cómo funciona la interacción con los robots será vital para el diseño de estos dispositivos y por eso hay decenas de científicos investigando cómo nos relacionamos con ellos. La última aportación la ha realizado un equipo de investigadores de las universidades de Toyohashi y Kyoto, encabezados por Michiteru Kitazaki, quienes han medido la respuesta cerebral de las personas cuando observan que un robot sufre daño.
Los voluntarios veían fotos de robots y personas sufriendo daños
Para el trabajo, publicado en Scientific Reports, los investigadores reunieron a quince voluntarios adultos a los que midieron la señal cerebral mediante encefalografía (EEG) mientras les mostraban imágenes de robots y personas sufriendo una agresión o daño en su integridad física. Cuando los sujetos observaban una imagen de un robot al que le cortan un dedo, la señal eléctrica (potencial) que se disparaba en su cerebro era similar a la que aparecía cuando veían lo mismo en un humano.
Los resultados permiten concluir a los autores que nuestros cerebros están preparados para asimilar que los robots son nuestros semejantes, aunque aprecian una pequeña diferencia en la señal "de arriba a abajo" (la fase descendente de la señal P3, al cabo de 500-650ms) relacionada con la capacidad de ponerse en la perspectiva del otro. En palabras sencillas esto significa que nuestro cerebro es capaz de empatizar con los autómatas pero no es capaz de colocarse en el lugar del robot.
A pesar de todo, no somos capaces de ponernos en el lugar del robot
Para conocer mejor este efecto, los investigadores planean realizar nuevas pruebas en las que se altere la perspectiva de los sujetos y se venza esta barrera. Su idea, concluyen, es contribuir al desarrollo de nuevos dispositivos que sean más amigables para los humanos y con los que nos sintamos más a gusto.
Referencia: Measuring empathy for human and robot hand pain using electroencephalography. (Scientific Reports, 5:15924) doi: 10.1038/srep15924