La actividad investigadora no ha dejado de crecer en el mundo. A sostenerla se dedican volúmenes de recursos crecientes. Y como consecuencia, cada vez hay más resultados científicos que se quieren publicar. Por otro lado, no dejan de surgir disciplinas, subdisciplinas y especialidades, y es normal que su aparición venga acompañada por la creación de nuevas revistas científicas en las que se publican los trabajos de aquellas. Los profesionales de la investigación y quienes aspiran a serlo sufren una presión cada vez mayor para publicar artículos con los resultados de su trabajo. Como consecuencia de todo ello cada día se publican infinidad de artículos científicos, miles, de todo tipo de temas, cada vez más y, en general, cada vez más breves.
Una parte importante de esos artículos no los lee nadie o, si los lee, no parece que dejen huella. Según estimaciones de hace casi tres décadas, un 55% de los artículos científicos no se citan nunca, y muchos otros son consultados y, a veces, citados en muy pocas ocasiones (Hamilton, 1990; Pendlebury, 1991). Pero según análisis más recientes, parece ser que esas estimaciones son exageradas (Van Noorden, 2017). El porcentaje de artículos de las alrededor de 12.000 revistas referenciadas en la Web of Science que no han sido citados nunca no llega al 10% en lo que llevamos de siglo, aunque seguramente es más alto en los miles de revistas no recogidas y que, sin embargo, figuran en el currículo de muchísimos investigadores y en la producción de muchos centros de investigación.
Según Van Noorden (2017), un 4% de todos los artículos publicados en revistas biomédicas, un 8% de los de química y un 11% de los de física no había sido citado diez años después. Si se excluyen las autocitas, o sea, las ocasiones en que un investigador cita su propio trabajo, el porcentaje de artículos no citados sube de manera considerable (en algunas especialidades hasta un 50%).
“Hay muchísima investigación que tiene un impacto mínimo o que lo tiene nulo”
Las anteriores son las disciplinas con mínimos porcentajes de artículos no citados. En ingeniería y tecnología llegan a ser el 24%. Considerando la literatura científica en su conjunto (39 millones de artículos de todas las disciplinas recogidas en la Web of Science) desde 1990 hasta 2016, el 21% no había recibido ninguna cita. La mayor parte de los artículos no citados se habían publicado en revistas poco conocidas. Esa es la razón por la que muy probablemente el porcentaje de artículos no citados es aún mayor en las revistas no recogidas en esa base documental.
En otra categoría se encuentran las revistas de humanidades. El 65% de los artículos de ese campo no había sido citado en 2006, lo que puede deberse, parcialmente al menos, a que en la investigación en humanidades hay quizás menor dependencia del saber acumulado que en las ciencias naturales. Y además, en la Web of Science no están bien representadas esas disciplinas, porque ignora muchas revistas y libros.
La diferencia entre las estimaciones de 1990 y 1991 y las más recientes se debe, en parte, a que las primeras incluían cartas al editor, respuestas, editoriales y, en general, todas las piezas publicadas por las revistas, mientras que las más recientes solo valoraba las de los artículos de investigación publicados. Pero otra razón es que a lo largo de los años se ha producido un descenso en el porcentaje de artículos no citados y ese descenso obedece, en cierta medida al menos, a que en cada artículo se incluyen cada vez más citas.
“Una parte muy importante de la investigación no es relevante a juicio de la propia comunidad científica”
Por último, los especialistas en cienciometría advierten acerca del hecho de que hay más artículos que son citados una o dos veces que los que no son citados. Y si se tiene en cuenta lo superficiales que son muchas de las citas, el diagnóstico del fenómeno no es nada halagüeño. Hay muchísima investigación que tiene un impacto mínimo o que lo tiene nulo.
Puede resultar aventurado considerar muchos de los artículos no citados o con una o dos únicas citas carentes de todo interés. La trayectoria de un artículo puede ser muy azarosa y acabar teniendo suficiente impacto muchos años después de su publicación aunque en los inmediatamente siguientes su influencia haya sido mínima o nula. Pero no es verosímil que eso ocurra con la mayoría de los artículos que no se citan o se citan mínimamente. La cruda conclusión es que mucha investigación realizada (a la vista de los datos anteriores cabría hablar quizás de un 20%, aproximadamente) no interesa a nadie y quizás un porcentaje similar interesa a algunos, pero interesa poco. En otras palabras, una parte muy importante de la investigación no es relevante a juicio de la propia comunidad científica, por lo que es desconocida y el esfuerzo que se le ha dedicado ha sido esfuerzo baldío.
Una derivación extrema y, cabría decir, patológica de este estado de cosas es el fenómeno de las revistas depredadoras de acceso abierto. Como puede atestiguar cualquier investigador en ejercicio, hay empresas que organizan congresos científicos y editoriales que publican revistas supuestamente especializadas que ofrecen la posibilidad de presentar comunicaciones (en los congresos) o publicar artículos (en las revistas) previo pago de importantes cantidades de dinero. Jeffrey Beall, bibliotecario de la Universidad de Colorado en Denver (EEUU), ha confeccionado una lista de revistas depredadoras que puede consultarse aquí (actualizada en 2015) y Antonio Martínez Ron ha tratado el fenómeno en Vozpópuli.
Existen esas revistas y se celebran esos congresos porque hay investigadores que los alimentan con sus contribuciones. No solamente carecen de credibilidad en la comunidad científica; no tienen, además, ningún interés para nadie. Aunque sus publicaciones tengan eco escaso o nulo, las revistas de calidad ejercen al menos un cierto control. Las depredadoras no llegan ni a cubrir esos mínimos.
Quizás hay demasiados científicos y no hay suficientes problemas interesantes que resolver
Quizás todo esto obedezca a que hay demasiados científicos y a que, por el contrario, no haya suficientes problemas interesantes que resolver. De ser así, nos encontraríamos ante un sistema científico sobredimensionado y la mejor forma de resolver el problema sería ir reduciendo poco a poco sus dimensiones y, a la vista de su evolución, tomar las decisiones que fuese menester.
Creo, sin embargo, que el problema es de otra naturaleza. Las más de las ocasiones el sistema científico recluta y promociona a sus profesionales de acuerdo con criterios cuantitativos. No se valora la calidad de las realizaciones a la hora de evaluar la trayectoria de los candidatos a ocupar puestos de personal investigador; tampoco se examinan, salvo de manera puramente formal a veces, los proyectos que pretenden desarrollar. La selección del personal investigador y los premios o promociones se basan de forma mayoritaria (aunque no en todos los casos) en el número de artículos y en indicadores numéricos del impacto de las revistas en que publican sus investigaciones. Y ese sistema incentiva la producción de muchos artículos, aunque una parte grande de ellos carezcan de interés, pero no incentiva la investigación de calidad.
En determinados campos hay tanta competencia que se piden “currículos imposibles”
De ser ese el problema, explicaría también que haya jóvenes muy preparados que no pueden dedicarse a la investigación científica porque no se les ofrecen oportunidades. El sistema se ha hecho tan competitivo (en términos estrictamente numéricos) que en muchos campos hacen falta cantidades ridículamente altas de artículos para estabilizarse en la profesión científica. Se necesitan, de hecho, “currículos imposibles”.
La lógica de ese sistema ha conducido, por otra parte, a la formación de un negocio editorial gigantesco que obtiene pingües beneficios del uso gratuito de resultados de investigación que han costado muchísimo a los contribuyentes de los países que la financian. Al sistema editorial se le suministran grandísimas cantidades de originales; un porcentaje alto es rechazado, lo que permite mantener la ficción de que se seleccionan en virtud de su calidad y hace más justificable que se pidan enormes cantidades de dinero para poder acceder al conocimiento depositado en sus revistas.
Los sistemas científicos de prácticamente todos los países funcionan de forma similar. Depositan en el uso de métricas sencillas su confianza y permiten la selección del personal sin que, en el fondo, hayan de tomarse verdaderas decisiones en el proceso. La decisión es la relativa a los criterios bibliométricos que se seguirán en los procesos de selección. Pero en realidad los responsables de las instituciones concernidas no ejercen su responsabilidad de forma plena.
Ya no se trata de hacer buenas investigaciones tratando de avanzar en la frontera del saber y dar a conocer posteriormente los resultados a los demás miembros de la comunidad científica. Se trata, cada vez más, de publicar la máxima cantidad posible de artículos en las revistas de mayor impacto. El sistema de publicaciones ha perdido así su función original y ha pasado a satisfacer los requerimientos de una comunidad necesitada de acreditar logros para estabilizarse o progresar en la carrera académica. En definitiva, el sistema ha confundido el fin con el medio para alcanzarlo, pervirtiendo así su razón de ser.
* Juan Ignacio Pérez es biólogo, catedrático y director de la Cátedra de Cultura Científica de la UPV/EHU.
Relacionado: ¿Está rota la máquina de hacer ciencia? (Next)
Apoya TU periodismo independiente y crítico
Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación