Opinión

El 'what if' del Banco de España

El otro día, un muy buen amigo, Enrique Feás, me comentaba por Twitter que una muy buena representación de lo que es un contrafactual sería el lamento de Will Munny

El otro día, un muy buen amigo, Enrique Feás, me comentaba por Twitter que una muy buena representación de lo que es un contrafactual sería el lamento de Will Munny (Clint Eastwood) al tratar de explicar lo que significa matar a alguien. En una escena de ese portento que es Sin Perdón, Munny comenta a Jaimz Woolvett que "matar a un hombre es algo muy duro..., le quitas todo lo que tiene y todo lo que podría llegar a tener."

En otro orden de cosas soy muy joven para recordar nuestro paso por los mundiales de fútbol de Argentina. En ella, un ídolo de la afición bética, don Julio Cardeñosa, fallaba un gol cantado frente a Brasil. Quién sabe, quizás nos hubiera metido en la siguiente fase. Del mismo modo, unos años después, Julio Salinas hizo lo propio contra Italia en el mundial de los Estados Unidos. Entonces los cuartos de final eran esa barrera infranqueable de las que saldríamos solo porque un Fábregas en estado de gracia no falló en su penalti contra Italia doce años después. Ese día pensamos qué habría pasado si Cardeñosa o Salinas hubieran arrancado un gol a la red de la portería contraria.

El “what if” anglosajón ha dado, a su vez, numerosas historias. El qué hubiera pasado es un ejercicio, como algunos dicen, de ciencia ficción, preguntarnos por un futuro alternativo paralelo al ocurrido. A mí, personalmente, me gustan esos ejercicios, el problema es que nunca sabremos qué habría pasado a ciencia cierta.

Sin embargo, hay otros ejercicios similares que sí pueden ser evaluados para conocer qué habría pasado si no hubiera ocurrido lo que finalmente sucedió. Este, de hecho, es uno de los mecanismos del que se sirve la ciencia para avanzar, particularmente en salud, sobre todo, y cada vez más en ciencias sociales.

El efecto de la vacuna

Hemos asistido en los últimos meses al desarrollo en directo de las vacunas. Hemos visto que han pasado por diferentes fases y, en una de ellas, la tarea realizada ha sido evaluar el efecto de la vacuna sobre la inmunización de un grupo de voluntarios que han participado en el ejercicio. Este es un modo de evaluar la existencia de causalidad entre dos eventos para los cuáles no tenemos un vínculo estrecho y visible como puede ser en otras ciencias. Que, por ejemplo, el fuego calienta el agua, no lo duda nadie (salvo un empirista radical). Simplemente la experimentación es sencilla y evidente a nuestros ojos. Ponemos agua al fuego en un cazo y, de un millón de veces que lo hacemos, un millón de veces sucede. Si cogemos una pelota en la mano y la dejamos sin sustento, esta caerá si estamos en la superficie de nuestro planeta. Si un millón de veces lo hacemos, un millón de veces lo hará. La causalidad es evidente.

No puede haber más jóvenes en promedio en un grupo que en otro, o más personas mayores. Ni siquiera complexiones. La distribución entre ambos grupos debe ser absolutamente aleatoria

En la experimentación con vacunas creo que ya todos sabemos cómo funciona. Para evaluar esa causalidad es necesario definir dos grupos de personas, si es posible con una distribución de características aleatorias entre ambos grupos, o dicho de otro modo, que no haya un sesgo de selección que puede contaminar los resultados. No puede haber más jóvenes en promedio en un grupo que en otro, o más personas mayores. Ni siquiera complexiones. La distribución entre ambos grupos debe ser absolutamente aleatoria. Es necesario que, en media, la única diferencia entre ambos grupos debe ser aquello cuyo efecto se quiere medir. El grupo control es aquél que no va a recibir medicamento y el grupo tratamiento será el que sí. De este modo, si exponiendo a ambos grupos a un mismo entorno encontramos que de forma significativa responden de maneras diferentes habremos inducido esa causalidad.

Aquí, lo importante es que el grupo de control es nuestro “what if”. Es lo que le habría pasado a nuestro grupo de tratamiento si no hubieran recibido el medicamento. Obviamente, no puedes comparar individualmente a los que participan en ambos grupos. Comparas solo los grupos, las medias. Las medias eliminan, gracias a las leyes de la Estadística (qué cosa tan bella) las desviaciones, las particularidades que, al estar distribuidas de forma aleatoria entre ambos grupos, dejan de tener efecto en el valor medio de cada uno de ellos. El “what if” es el contrafactual, lo que habría pasado y no ha pasado al grupo de tratamiento. Es lo que habría enfermado, pero no enfermó. Y ese “what if” lo podemos valorar porque sabemos cómo se comporta en el grupo de control. Con el uso de estadísticas y cálculos, el contrafactual se puede calcular.

Muchas veces, por razones morales, no puedes crear grupos de control explícitos para valorar el efecto, por ejemplo, de una política

Este tipo de experimentación se ha hecho propio por parte de las ciencias sociales. El problema es que, en este campo del saber, el diseño de experimentos es más complejo. Muchas veces, por razones morales, no puedes crear grupos de control explícitos para valorar el efecto, por ejemplo, de una política. Este hecho te impide en no pocas ocasiones, como en el caso de las ciencias de la salud, crear grupos perfectamente aleatorizados, por lo que las técnicas para poder “aislar” la causalidad no es tan directa. Ojo, he dicho a veces, pero no nunca. También, en no pocas ocasiones, y en esto la economía y la sociología han avanzado de forma espectacular en las últimas décadas, se diseñan experimentos muy controlados y similares a los realizados por las ciencias de la salud.

El ejercicio presentado la semana pasada por el Banco de España es un ejemplo de aplicar técnicas muy depuradas para el análisis causal, en este caso, de la subida en 2019 del SMI. Se diseñan grupos de tratamiento (aquellos que fueron afectados por esta subida) y se trata de encontrar grupos de control. El problema, tal y como lo indica el propio informe, es que este grupo de control tiene dificultades de ser definido, ya que no son grupos completamente similares a los de tratamiento (tienen salarios mayores). Pero en lo que nos apoya la Estadística es que, entre dos trabajadores medios con salarios muy cercanos, donde uno sea afectado y otro no, es posible identificar el efecto causal de la subida del SMI de una forma bastante aceptable.

En este caso, el grupo control, que se comportó de forma muy similar al de tratamiento antes de la subida, nos va a dictar qué hubiera pasado con el de tratamiento si no hubiera habido una subida del SMI. Este grupo de control es el “what if”. Y aplicando técnicas econométricas algo avanzadas es posible definir qué habría pasado con el empleo de entre aquellos que fueron afectados si no hubiera habido subida del SMI. Dicho en otras palabras, no solo es posible medir con aproximación cuánto empleo pudo destruirse, sino cuánto no se habría creado.

En resumen, las ciencias sociales avanzan en el análisis de tal modo que cada vez somos más capaces de identificar mediante experimentos controlados las relaciones causales entre políticas y sus consecuencias. Y sí, es posible no solo comprender qué ha pasado, sino qué hubiera pasado con una aproximación bastante elevada. La Estadística te lo garantiza. Y aunque a muchos les cueste entenderlo, se podría estimar no sólo el empleo perdido sino además el no creado. Pensar que no se puede solo responde a una razón: no se sabe de grandes números.

Apoya TU periodismo independiente y crítico

Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación
Salir de ver en versión AMP