La buena investigación no depende del número de publicaciones: ¿por qué la medimos así?
¿Cómo se mide la calidad de un investigador? Imaginemos la siguiente situación: dos investigadores presentan su candidatura a una promoción universitaria.
El primero ha publicado doce
artículos en tres años. La mayoría aparece en revistas indexadas en bases de
datos internacionales que seleccionan publicaciones según criterios de calidad
editorial.
El segundo ha dedicado cinco años a un proyecto complejo y
ha obtenido una estancia de investigación. Ha producido menos artículos, pero
ha generado datos reutilizados por otros grupos y ha formado a varios
doctorandos. Parte de su trabajo ha tenido una influencia directa en políticas
públicas.
Cuando una comisión debe
decidir quién tiene mejor trayectoria científica, ¿qué pesa más?
En muchos sistemas
universitarios la respuesta depende del número de publicaciones, el factor de
impacto (índice que calcula cuántas veces se citan, de media, los artículos de
una revista durante un periodo concreto), la posición de la firma del autor (en
el orden de firmas de un artículo científico) o las citas acumuladas (el número
de veces que se citan sus artículos).
Estas métricas permiten ordenar candidatos con rapidez. Sin
embargo, fueron concebidas para describir patrones agregados de producción
científica, es decir, tendencias generales sobre cómo, cuánto y dónde publica
la comunidad científica en su conjunto: volumen de artículos, ritmos de
crecimiento, colaboración entre países o campos y circulación de citas.
No se diseñaron para sustituir el juicio cualitativo sobre
trayectorias individuales, que exige valorar la originalidad, la solidez
metodológica, la capacidad de liderazgo y la contribución real al avance del
conocimiento.
Evaluar no es contar
Durante las últimas décadas, en la universidad se ha
consolidado un principio: la calidad científica de un investigador depende del
número de publicaciones en revistas consideradas de alto impacto y en el
volumen de citas recibidas. Resumido en un principio que ha marcado
generaciones de investigadores, “publicar
o perecer”, este enfoque cuantitativo suponía que a mayor número de
artículos o papers en poco tiempo, mayor posibilidad de conseguir
reconocimiento académico en la universidad.
Al no ser tan fácilmente cuantificables, la trayectoria
profesional a largo plazo, el impacto social del conocimiento y la integridad
científica quedaban relegados, mientras que se fomentaron dinámicas encaminadas
a maximizar la presencia “cuantificable”
en revistas académicas, como la fragmentación de una misma investigación en
varios artículos (salami slicing), la duplicación de contenidos o la traducción
de un mismo trabajo con el objetivo de aumentar el número de publicaciones.
Desde la propia comunidad
científica surgieron, desde comienzos de la década de 2010, críticas a este
modelo de evaluación.
En 2012 se publicó la San Francisco Declaration on Research
Assessment (DORA), que cuestionó el uso del factor de impacto como criterio
para evaluar investigadores. En 2015 se difundió el Leiden Manifesto, con diez
principios para un uso responsable de los indicadores. Más tarde, en 2022, se
creó la Coalition for Advancing Research Assessment, que promueve reformas estructurales
en los sistemas de evaluación.
A estas iniciativas se suman los Hong Kong Principles y la
Singapore Statement on Research Integrity. Todas han señalado las limitaciones
de este sistema y la necesidad de prestar mayor atención al contenido, la
integridad y la aportación cualitativa de la investigación.
La burocratización de la
promoción universitaria
En España se ha avanzado por
parte de los organismos oficiales de acreditación y evaluación, alineados con
la normativa europea de reforma de la investigación. Sin embargo, a nivel
interno, en muchas universidades a la hora de aspirar a una promoción, gana
quien más puntos acumula, y los méritos se fragmentan en apartados
independientes que no permiten evaluar una trayectoria de manera cualitativa.
La calidad de la investigación tiende a identificarse con
aquello que resulta más sencillo de contabilizar, y la evaluación se vuelve un
proceso burocrático en el que, por ejemplo, el uso de plantillas fijas impide
reconocer méritos relevantes porque no encajan en una casilla concreta.
Esto tiene un efecto en cómo
los propios investigadores definen sus prioridades, condicionando los ritmos de
trabajo y generando una presión estructural. También aumenta el riesgo de
incurrir en malas prácticas.
Algunos investigadores recurren a revistas depredadoras que
prometen publicaciones rápidas a cambio de elevadas tarifas (APC), sin procesos
reales de revisión externa.
Falta de transparencia
La falta de transparencia
agrava este escenario.
Los criterios no siempre se conocen con antelación ni se
explicitan con claridad. La comunidad universitaria apenas participa en su
definición o revisión. En términos de gobernanza interna no existen garantías
suficientes frente a conflictos de interés, dinámicas endogámicas o evaluaciones
difíciles de verificar.
Cuando se presentan reclamaciones, es frecuente que
aparezca el silencio administrativo con carácter negativo. También en casos de
impugnaciones tras una resolución definitiva. Esta situación genera indefensión
jurídica y debilita la confianza en el sistema de evaluación.
Currículum narrativo y
evaluación responsable
Una alternativa a este sistema cuantitativo es el
currículum narrativo, una herramienta de evaluación más contextualizada. Su
finalidad es permitir una lectura cualitativa de la trayectoria investigadora y
situar los méritos en su contexto real.
El currículum narrativo se articula a partir de perfiles
académicos definidos y de un número limitado de aportaciones relevantes. Este
formato permite valorar dimensiones que rara vez encajan en plantillas rígidas:
liderazgo científico, formación de equipos, ciencia abierta, colaboración
interdisciplinar, impacto social, responsabilidad en la gestión de datos o
promoción de buenas prácticas.
La experiencia de los Países
Bajos muestra que este enfoque puede aplicarse con coherencia cuando se definen
los perfiles académicos, se limita el número de aportaciones evaluables y se
invierte en la formación de las comisiones.
Esta práctica, integrada de manera efectiva, previene los
conflictos de interés y se refuerza con mecanismos de auditoría externa.
Cómo la evaluación define el
modelo universitario
El sistema de evaluación influye en qué temas reciben
atención, qué proyectos se consideran viables y qué riesgos intelectuales se
asumen. Si se premia la productividad inmediata, se favorecen resultados
rápidos y fragmentados. Si se reconoce la coherencia a largo plazo y la
integridad científica, se incentivan investigaciones más sólidas y socialmente
relevantes.
Muchas universidades europeas han asumido compromisos
formales con la Comisión Europea a través del sello Human Resources Strategy
for Researchers, que exige el cumplimiento de los principios del European
Charter for Researchers: evaluación transparente, criterios claros, ausencia de
conflictos de interés y procedimientos verificables. Además, requiere
auditorías, planes de acción y seguimiento periódico.
Impacto en la calidad del
conocimiento
La forma de evaluar a los investigadores no es un detalle
administrativo. Cada criterio de evaluación envía un mensaje claro por parte de
la institución: esto es lo que valoramos, esto es lo que cuenta.
En ese gesto se define qué tipo de universidad se quiere
construir y qué modelo de ciencia se considera valioso. Y de esa elección
depende, además de la credibilidad de una institución, la calidad del
conocimiento que se transmite a la sociedad.
Anna Peirats
Francisco Javier
Arteaga Moreno
.jpg)
Comentarios
Publicar un comentario