Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Miércoles, 20 de noviembre de 2019
Cómo es la producción científica

La fiebre por el paper y el remedio de la 'slow science'

Ricardo Martínez

slow_science_the_conversation.jpg

Crédito: The Conversation
Crédito: The Conversation

Cada minuto que pasa se publican tres investigaciones académicas (papers) en el mundo, alrededor de un millón y medio anuales, en un ritmo vertiginoso que se ha venido acelerando desde mediados de la década del noventa. Los papers se han convertido en la moneda de cambio para clasificar y ranquear a las universidades y han precipitado una obsesión por “publicar o perecer” que ha sometido a un enorme estrés al mundo universitario y a una carrera a veces sin sentido.

El informatólogo Eugene Garfield tuvo una carrera académica bastante curiosa. Primero estudió química, sin embargo, su PhD (doctorado) lo obtuvo en lingüística, dos disciplinas que no podrían parecer más distantes, pero que a la larga lograron que Garfield inventara una iniciativa que resulta la clave para entender cómo funciona la universidad del siglo XXI: el más extendido e influyente sistema bibliométrico contemporáneo, llamado ISI (Instituto para la Información Científica, por sus siglas en inglés). 

Garfield se había dado cuenta de que, en todas las disciplinas académicas, en especial en las ciencias puras y aplicadas, para poder avanzar en el conocimiento había que leer a otras u otros autores. Ya en el siglo XIX, en el ámbito de lo legal se habían creado repositorios que indicaban con precisión quiénes habían trabajado en un tema antes que uno, el Shepard’s Citations, y en la primera mitad del siglo XX se formuló la Ley de Bradford: “en cualquier área del conocimiento, los artículos académicos [papers] fundamentales se escriben en unas pocas revistas, estos son los papers que luego se citan o se comentan en el área”. 

¿Cuáles eran estas revistas? A menudo Science y Nature y unas cuantas más, llegando a totalizar unas 400 para el 90% de las citaciones en ciencias en 1967, según contó el mismo Garfield en un documental disponible en Youtube. Garfield, entonces, ideó la brillante idea de asignarles puntaje a las investigaciones según cuántas veces habían sido citadas en los años posteriores, el índice de impacto.

Así podían los investigadores podían distinguir los papers (artículos académicos validados por pares) que finalmente se habían vuelto importantes para su área, de los que no. Garfield construyó de este modo, desde inicios de los sesenta, un verdadero imperio: ISI, el que tenía como operación base documentar todo lo que apareciera en esas casi 400 revistas (hoy son varios miles), y hacer los links con otros textos, para orientar a los investigadores. Y, lo más importante, estableció una métrica objetiva de la productividad académica.

La locura por publicar

Los listados de revistas más importantes en las distintas área del conocimiento (índices, o listas de revistas indexadas) -como ISI, que hoy se llama Web of Science (WoS) y pertenece a la compañía Clarivate, o Scopus, que pertenece a la holandesa Elsevier- permitieron empezar a hacer todo tipo de rankings para ordenar a las universidades en el mundo y también a sus académicos, según su producción de conocimiento.

En estos rankings, la principal moneda de cambio siguen siendo los papers; trabajos de un par de decenas de páginas, escritos bajo estrictos criterios de calidad y exigencia y revisados con lupa por pares evaluadores (peer reviewers).

Desde, por un lado, la aparición de los sistemas de ranqueo internacional de universidades (como el Academic Ranking of World Universities, ARWU; el Times Higher Education, THE, y el Quacquarelli Symonds, QS) a partir de 2003. Y, por el otro lado, desde la irrupción en Chile en 2003 del procedimiento de acreditación universitaria por la Comisión Nacional de Acreditación (CNA) y algunos rankings de alcance nacional por parte de publicacione como Qué Pasa o América Economía, el uso de la publicación de papers se volvió un indicador crucial para no solo evaluar la calidad de las universidades, sino que también para subir en las estadísticas de prestigio.

Los rankings han terminado influyendo fuertemente las universidades chilenas, los cuales se han moldeado a la necesidad de estar presentes ahí, estableciendo fuertes incentivos a la producción de papers.

Estas mediciones han terminado influyendo fuertemente los departamentos de desarrollo institucional de las universidades chilenas, los cuales se han moldeado a la necesidad de acreditar y estar presentes en los rankings, estableciendo fuertes incentivos a la producción de papers.

¿Cuál fue el efecto de esta medida en el entorno interno del quehacer de las profesoras y los profesores?

Para Carolina Gainza, académica de la Universidad Diego Portales, y líder de la Asociación de Investigadores en Artes y Humanidades “en los últimos años se ha manifestado, a nivel mundial, un creciente descontento por parte de los investigadores en relación con estos sistemas de ranqueo basados en una medición puramente cuantitativa de la investigación. Esto también se encuentra presente en nuestro país, donde las y los profesores universitarios, para cumplir con el mandato de los rankings y mantenerse vigentes en investigación, se ven obligados a priorizar la escritura de papers por sobre otras labores de la práctica académica, como la enseñanza y la divulgación. En este sentido, se ha generado un sistema nefasto que hace perder el foco sobre cuál es el sentido de investigar, ¿investigo para publicar papers y subir en los indicadores de investigación o lo hago para aportar al conocimiento en mi área?”.

El caso de Chile

De acuerdo con datos de Scimago de 2017, ese año en la base de datos de Scopus se publicaron 12.714 papers chilenos, lo que es un número muy alto si se compara con otros países de la región como Brasil (73.697) México (22.954) o Argentina (13.308), sobre todo si se calcula la cantidad de papers publicados cada cien mil habitantes; Chile: 69, Brasil: 35, Argentina: 30, México: 17.

¿Qué situaciones han favorecido o impulsado este desarrollo líder en la región de la actividad científica?

"Los sistemas de evaluación son en extremo ingenuos, y premian la publicación fragmentada de una investigación en varios papers, a la vez que castigan a quienes porfían en publicar papers sólidos y exhaustivos", dice Sadowsky.

Contesta Scott Sadowsky, lingüista y académico de la Pontificia Universidad Católica: “Es muy posible que en Chile se haya instalado con más fuerza que en otros países de la región la cultura del publon, en la cual se toma lo que hace algunos años habría sido una única publicación contundente y comprehensiva, y se divide en el mayor número de unidades mínimas publicables posible. De este modo se multiplica el número de publicaciones sin aumentar significativamente el esfuerzo involucrado. Dado que los sistemas de evaluación de académicos que se usan en Chile son en extremo ingenuos, y premian este tipo de comportamiento, a la vez que castigan a quienes porfían en publicar papers sólidos y exhaustivos. Sería insólito que la cultura del publon no fuera parte importante de lo que ha generado este fenómeno".

Sigue Sadowsky: "Otro factor que puede haber incidido es el hecho de que, en la última década, un importante número de revistas académicas chilenas ha realizado los trámites para incorporarse en los índices de empresas con fines de lucro tales como Clarivate (WoS, antes ISI) y Elsevier (Scopus). Por alguna razón, figurar en estos índices se malinterpreta como una especie de certificación de la calidad científica, cuando en realidad sólo demuestra la capacidad de la revista de cumplir con ciertos requisitos burocráticos y de publicar sus números con regularidad. Como consecuencia de esto, se ha creado una especie de gueto de revistas científicas nacionales que carecen de casi todo impacto, y que en su mayoría son completamente desconocidas fuera de Chile, pero que por el hecho de figurar en tal o cual índice son tomadas en cuenta por Fondecyt, por la CNA, y por las universidades".

"El número de papers publicados no es un indicador de nada científicamente relevante; es como el número de pinceladas que da un artista mientras pinta un cuadro. Ambas son cifras empíricas y objetivas que pueden ser contabilizadas con suma facilidad por los burócratas, pero que nada dicen acerca de lo que sí importa: la originalidad de la obra, el rigor del trabajo, el aporte que hace a la disciplina, el efecto que provoca en el quehacer de otros especialistas, o el interés que despierta en general. Con tamaño descriterio, se puede llegar perfectamente bien a la conclusión de que el caricaturista que se instala en la plaza los fines de semana es mejor pintor que Rembrandt o Klimt”, concluye Sadowsky.

El corte de salame

La referencia de Sadowsky al publon se relaciona con algo que se publicó en Nature Materials en 2005, la cultura del corte de salame o salami slicing, que consiste en intentar buscar la mínima medida de información que permite que un paper se publique y que favorece romper (cortar) la investigación en un mayor número de papers y, en consecuencia, obtener un mayor número de puntos de impacto.

Gaínza se explaya: “Dadas las condiciones de producción del conocimiento actual, no queda tiempo para realizar aportes de largo alcance, menos para escribir un libro. Como los criterios de evaluación en las instituciones priorizan tener un alto número de papers, obviamente un investigador o investigadora se ve forzada a dividir los resultados de su investigación. Quizás este formato funciona en algunas áreas, donde haces un experimento y publicas resultados parcelados, pero ha sido nefasto para otras áreas del conocimiento, como la investigación en artes, humanidades y ciencias sociales. Por ejemplo, si tu resultado de investigación es un libro como consecuencia de un Fondecyt de cuatro años, eso es visto como poco productivo, independiente del aporte que pueda significar para el área de estudios. No cumples con los indicadores de productividad exigidos".

"Por supuesto, esto obliga a los investigadores a dividir su investigación en artículos académicos publicados en revistas indexadas, las que dan más puntos, y no deja tiempo para una reflexión más profunda sobre lo que se está investigando y que pueda resultar en otro tipo de publicación o difusión. Para investigar se necesita tiempo, y eso es justamente lo que un sistema basado en la cuantificación no permite. Hemos comentado con varios investigadores como este sistema nos ha forzado en convertirnos en una fábrica de salchichas”, remata Gaínza.

¿Volver al pasado o desacelerar? La idea de la slow science

Bien se podría pensar que en medio del vértigo por un mayor número de publicaciones -que también tiene sus aristas positivas, como el hecho de que por tratarse de métricas objetivables permite dimensionar de manera cuantitativa el desarrollo de la carrera de las y los académicos, como hacen notar una serie de investigaciones llevadas a cabo por Andrés Bernasconi, de la Universidad Andrés Bello- se querría volver a un momento anterior en el tiempo. Anterior a los índices, a las bases de datos, a los valores de impacto y a los rankings.

Carolina Gaínza piensa al respecto que “el sistema anterior también tenía sus defectos. Para que un investigador joven pudiera publicar o insertarse en el sistema tenía que tener contactos con la elite de investigadores consagrados. Hoy existen concursos para puestos de trabajo o fondos de investigación, los cuales tienen sus defectos, pero al menos son, en su mayoría, más abiertos y presentan criterios de postulación disponibles públicamente. Por otra parte, en el sistema anterior, quienes ya estaban en un puesto académico en la universidad no tenían ningún tipo de presión para mantenerse vigentes. Es por esto que pienso que no se trata de acabar con el sistema de investigación actual o dejar de publicar. Creo que es una irresponsabilidad decirle a un estudiante o a un investigador joven que no publique, eso sólo lo pueden hacer quienes están consagrados en un área o en la carrera académica".

"Sin embargo, el problema del sistema actual es la competencia feroz a la que somos sometidos, entre nosotros y entre áreas del conocimiento. Se quiere tener investigación de punta, pero con un presupuesto bajísimo y con una institución que financia investigación de corto plazo, donde los investigadores, cada vez más numerosos, tenemos que competir cada dos o tres años por fondos para una nueva investigación, con lo cual es imposible darles continuidad a los proyectos”, concluye Gaínza.

Ha empezado a emerger un movimiento tímido de investigadores en el mundo que se autodenomina slow science, por analogía con slow food o slow fashion, cuyo hito es la el libro ¡Otra ciencia es posible! de Isabelle Stengers.

De este modo ha empezado a emerger un movimiento tímido de investigadores en el mundo que se autodenomina slow science, por analogía con slow food o slow fashion.

De acuerdo con The Conversation, la idea seminal de la slow science ha sido planteada por la filósofa belga Isabelle Stengers, en un manifiesto que se publicó en francés en 2013 con el título de Une autre science est possible! (¡Otra ciencia es posible!).

En su libro, Stengers dice que para que el trabajo de los científicos sea relevante, tienen que negociar con un público más amplio y respetar sus preguntas. Cosas como ¿Por qué estás haciendo este trabajo? ¿Para qué será utilizado? Siendo posible que el público tenga que esperar las respuestas, porque los científicos “todavía están trabajando en ello”. Pero tenemos el derecho de ser incluidos en la conversación, argumenta, como un público inteligente”, consigna The Conversation.

Pedro Alfaro, académico de la Universidad Católica de Valparaíso, problematiza esta idea: “Otro hecho que suele ocurrir en la obsesión por las publicaciones es que a veces no terminas un proyecto de investigación y debes postular a otros. Esto trae aparejado dos problemas: por un lado, es posible que, al no dejar macerar los resultados, se te escapen ideas que podrían ser relevantes para la disciplina, pero, por otro lado, los fondos que financian proyectos de investigación implican el pago del trabajo de muchas personas, que son la base de muchas investigaciones, quienes, en cierto modo, dependen de este sistema de publicaciones, como los ayudantes de investigación, por ejemplo".

"En este sentido no es solo la locura por los papers la que te lleva a una competencia extrema y, a ratos, sin sentido, sino que es un sistema entero que se retroalimenta del frenesí de los fondos y las publicaciones indexadas”, remata Alfaro.

En ese sentido, el slow science puede ser una buena idea para el investigador individual, pero no necesariamente para la maquinaria completa de investigación y que es la que finalmente produce el avance científico.

Llegado a este punto -que a usted como lector le ha tomado unos trece minutos leer- se puede comprender mejor el sentido de la slow science, sabiendo que en ese lapso ya se han publicado cuarenta papers más en todo el mundo, y, si las cosas siguen como están, se seguirá haciendo a ese ritmo y quizá más rápido en el tiempo por venir.

Los Más

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

Los Más

Comentarios

Comentarios

brillante articulo.Felicitaciones.Quisiera aportar con un articulo. Revisen www.laboratoriogrecia.cl

me interesa la ciencia, politica y el periodismo investigativo astte Santiago Zapata C. PhD

La labor que realizan es fundamental para volver a centrar de manera ética y equitativa el tema de la ciencia y la tecnología en un mundo global cada vez más veloz y voraz.

Gracias por la reflexión. En humanidades se siente con fuerzas las contradicciones entre el pulseo por medición "objetiva" y relevancia del trabsjo. Hay otros modelos, algunos mixtos como el australiano o el japonés. En Chile el principal responsable de esto son lis equipos disciplinarios de conicyt.

Excelentes reportajes.

Añadir nuevo comentario