Inmersos en esta tragedia de la epidemia, todos deseamos que se encuentren los remedios oportunos lo antes posible, para poner freno a la enfermedad y a la terrible mortandad que ha desencadenado. Sin embargo, conviene no olvidar que vivimos en un país con un Estado presidido por el doctor cum fraude y, vicepresidido, entre otr@s, por un profesor “titular interino” (?) nada menos que de la Universidad Complutense de Madrid. Y conviene no olvidar tampoco los demás casos, no tan lejanos en el tiempo, de los cambalaches y manejos con que muchos de nuestros ilustres próceres han inflado su curriculum de cara a tapar su personal incuria al ocupar algunas de las más altas magistraturas del Estado, de alguna de sus terminales periféricas o de alguno de los bien pagados media que sostienen el tinglado en el día a día.
Hay problemas que afectan al mundo académico en general, y hay otros, añadidos, que empeoran el panorama en el caso concreto de España. Sobre los primeros hablaremos en este post. Sobre los demás, hablaremos en otra ocasión. Baste recordar, en relación con estos últimos, lo que comentaba el profesor Jesús Fernández Villaverde en un post publicado en el blog Nada es gratis, de FEDEA. En plena Gran Recesión, el diario El País publicaba una noticia sobre la victoria de José Carrillo como candidato a rector en las elecciones celebradas por entonces en la Universidad Complutense de Madrid: “La izquierda mantiene su bastión en la Complutense”. El profesor Fernández Villaverde apuntaba que semejante afirmación disuadiría a cualquier inversor de otro país o de otros centros académicos o de investigación a financiar un proyecto que pretendiese impulsarse desde la citada Universidad, a no ser, naturalmente, que compartiese plenamente sus postulados ideológicos. En definitiva, un filántropo o un instituto científico o centro de investigación ajenos a dicha Universidad, a los que únicamente moviese el avance del conocimiento y, para ello, el fomento de la investigación básica o aplicada, pensaría que en la referida Universidad, si no en el referido país, la gente ha perdido el juicio, o está absolutamente politizada, por lo que no conviene desperdiciar allí los fondos que podrían invertirse en otros centros y países con mayor precariedad de medios y más rigor académico y científico, en una simple aplicación del principio de coste de oportunidad. Pero, en fin, centrémonos en los problemas de partida del sistema, por esta vez.
Publish or perish (publica o muere) es la consigna que mueve el trabajo académico y científico a nivel mundial. Desde que Eugene Garfield desarrollara los modelos modernos de indexación – un sistema que permite evaluar el impacto de un trabajo académico publicado por el número de citas de otras especialistas que recibe –y desde que se crearon, por un lado, los rankings internacionales de universidades como el de Shanghai, y de otro, el proceso de acreditación de carreras y universidades, las instituciones universitarias han estado constantemente presionando a sus plantillas académicas a publicar el mayor número de papers posible, a fin de mejorar sus scores dentro de los rankings.
Estos puntos se calculan y atribuyen según la cantidad de papers o libros que habitualmente se han publicado en un período de tiempo que corresponde a los últimos cinco años. Pero, publicar en algunas de estas revistas, que son unas veinte mil en todo el mundo, divididas en todas las áreas imaginables del conocimiento, es una tarea ardua en la que la competencia se hace cada vez más y más dura. Además, en los últimos años, a las publicaciones se les ha empezado a exigir más aún, como, por ejemplo, publicar en las revistas de más impacto, las que reciben más citas, a las que se divide en cuartiles. El índice de impacto es el número de veces que han sido citados artículos de una revista en 2 años dividido por el número total de artículos en la revista en ese mismo periodo. Es un indicador de la actualidad, originalidad y solidez de los artículos que se publican en una revista científica. Por ejemplo, entre las revistas de más alto índice, la revista Nature tiene un índice de impacto en el año 2013 de 42,3; la revista Science de 31,4; The New England Journal of Medicine de 54,4.
Así, en el ranking de los académicos se considera el número de citas que reciben sus publicaciones, es decir, cuántas veces se han citado sus papers en otros trabajos científicos o académicos, lo que resulta extraordinariamente difícil si, por ejemplo, se trata de un tópico de investigación poco tratado o novedoso, lo que, por otra parte, resulta ser lo que en principio se exige en una tesis doctoral, que desarrolle un trabajo de investigación original (?).
Pero ni siquiera todo esto resulta suficiente. No basta con tener algún paper muy citado, en los últimos años ha empezado a emplearse, cada vez con más asiduidad, el llamado Índice H, que asigna puntos en función de cuántas veces cuántos papers de un autor o grupo de investigación han sido citados: si se ha citado una sola vez y un solo paper, recibo un Índice H de 1; si se ha citado cuatro veces cuatro papers distintos, se recibe un Índice H de 4.
Publicar en una revista indexada es una tarea ardua. En primer lugar, hay que pasar el filtro de que, tras enviar el trabajo, la editora o el editor de esta revista prestigiosa lo tome en consideración. Muchos de los envíos no superan el umbral de este primer filtro. En segundo lugar, hay que esperar los veredictos del peer reviewing, un proceso en que el trabajo es enviado a un par de especialistas secretos – cuya identidad es a priori desconocida para el autor – y ciegos – ya que ellos, a su vez examinan el trabajo sin saber quién es el autor -. La labor de estos árbitros o jueces imparciales (referees) culmina con un informe sobre si el texto sometido a su revisión es aprobado, aprobado con modificaciones o rechazado. En el mejor de los casos, y en la mayoría, lo que suele suceder es que el trabajo resulta aprobado con la condición de responder a un conjunto de objeciones o exigencias de justificación adicionales formuladas por los árbitros-revisores.
Una vez expuesto el marco general en el que se desarrolla el proceso, ahora resulta relativamente sencillo detectar dónde y por qué surgen las malas prácticas. La carrera de un científico, su puesto de trabajo, sus expectativas de promoción o el reconocimiento entre sus colegas dependen de sus publicaciones en revistas de gran prestigio y con un índice de impacto elevado. El reconocimiento a su trabajo se podrá manifestar como nuevas ofertas de puestos de trabajo con más medios y mejor sueldo, o como invitación a congresos internacionales o en participación en comités y consejos editoriales, o incluso como un condicionante para el mantenimiento del puesto de trabajo.
Un primer escalón viene dado por prácticas desde luego poco serias, poco éticas si somos rigurosos, pero que no van más allá de ciertos fenómenos de picaresca, sin más consecuencias. Una de estas malas prácticas consiste en las llamadas publicaciones cruzadas. Una revista dirigida por una persona no puede publicar a especialistas de su misma universidad ni departamento. A esto se llama control de la endogamia. Si después de superar todos los filtros a los que anteriormente hacíamos referencia, un autor-editor logra, por ejemplo, que una revista se indexe, de hecho no podrá publicar en ella sus propios trabajos. Es entonces cuando surge la solución magistral de las publicaciones cruzadas. Si ese editor no puede publicar en su propia revista y el director de una revista análoga de otra universidad tiene el mismo problema, entonces se pone en marcha una sociedad de bombos mutuos y arreglado. Sucede que cuando se instrumenta este tipo de arreglos suele reducirse el nivel de exigencia para el director de la publicación correspectiva, facilitándole una especie de fast track, y esto suele degenerar en abusos y malas prácticas de peor condición, pues sin duda no constituye un incentivo para la mejora de la calidad de las publicaciones.
Otro truco bastante habitual consiste en que, con ocasión de los momentos de esparcimiento de un congreso o de unas jornadas convocadas para la presentación de comunicaciones y trabajos en torno a la disciplina de que se trate, algunos académicos se coordinan para citarse mutuamente. En efecto, la autocita no computa a efectos de impacto de las publicaciones. Sin embargo, a través de esta argucia del citation farm, todos los implicados se benefician y quedan satisfechos: yo te cito, tú me citas, y los dos aumentamos nuestros Índices H.
El segundo escalón vendría de la mano de una picaresca de mayor voltaje, que podríamos discutir si reúne todos los elementos objetivos del tipo delictivo del fraude, pero que indudablemente es un fraude en el concepto común que todos vinculamos a este término. Por un lado, están las pseudoeditoriales académicas que dirigen un correo electrónico al sufrido recién egresado del doctorado en búsqueda desesperada de méritos académicos con que engrosar su por ahora magro curriculum. Estos sinvergüenzas no tienen detrás un sistema de peer reviewing ni nada que se le parezca, no ofrecen feed back a los autores sobre los trabajos que les entregan y se limitan a almacenarlos en sus servidores, a la espera de que alguien haga un pedido para imprimirlos. Otro fenómeno similar es el de las conocidas en el ámbito anglosajón por predatory conferences. Se trata de congresos académicos, que se convocan habitualmente con un título espectacular o rimbombante, que por eso mismo abarcan un campo de investigación amplísimo y ciertamente difuso – todo cabe -, donde la redacción del programa es confusa y a veces contiene faltas tipográficas e incluso ortográficas, y que a cambio, naturalmente, de unas fees elevadísimas acaba por ofrecer, sin más, un paquete turístico. Otro engañabobos, que no debería permitirse por las autoridades académicas, otras veces tan celosas de sus atribuciones.
Y en un tercer escalón llegamos, por fin, a los fraudes máximos, al falseamiento consciente de presuntos resultados de investigación. Un artículo sobre los casos de fraude científico publicado el año 2012 en Proceedings of the National Academy of Sciences (PNAS. 109 (42):17028-17033) firmado por Fang et al. analiza 2.047 casos indexados por PubMed de retractación de artículos sobre investigación biomédica. Son casos en los que después de haber publicado un artículo, los autores envían una nota a la revista retractándose parcial o totalmente de los datos publicados. Fang et al. llegan a la conclusión de que solamente el 21,3% de las retractaciones de artículos publicados en revistas científicas se deben a errores en la elaboración de los datos o en la edición del artículo. Un error supone publicar datos falsos pero sin la intención de engañar. En la misma publicación se concluye que en el 67,4% de los casos de retractación, la causa fue el fraude, lo que implica falsificación a conciencia de los datos publicados. Según Fang et al. las cifras de fraude que se manejaban antes de publicarse su trabajo habían sido estimadas a la baja debido a que las notas de retractación eran incompletas o poco informativas. Los tipos de fraude detectados incluyen inventarse datos que no existen o que han sido modificados para coincidir con las conclusiones (fraude propiamente dicho) y que suponen el 43,4% de los casos, duplicación de la publicación con los mismos datos (14,2%) o plagio de datos, textos o ideas que ya han sido publicados por otros autores (9,8%).
Jesús Molano, Director de la Revista del Laboratorio Clínico, publicó en la edición de esta revista de enero-marzo de 2015 (vol.8, núm. 1, pp. 1-2) un interesante trabajo Sobre el fraude científico, en el que describe tres casos históricos y paradigmáticos de este fenómeno, a modo de ilustración empírica sobre los condicionantes y motivaciones que podrían explicarlos o al menos comprender por qué se han producido.
Paul Kammerer (1880-1926) era considerado uno de los biólogos más brillantes del mundo. Kammerer se interesó siempre por las teorías de la evolución de Lamarck (1744-1829) que sostenía que los rasgos adquiridos durante la vida eran heredados por los descendientes. La teoría de Lamarck sobre la herencia de caracteres adquiridos defendía la plasticidad de la naturaleza humana, como una forma acelerada de la teoría de la evolución de Darwin. En 1923, trabajando con sapos, Kammerer quiso demostrar que a los sapos machos les salían unas pequeñas espinas en sus patas que les ayudaban en el apareamiento. Años más tarde K. Noble al visitar el laboratorio de Kammerer descubrió que había inyectado tinta en los dedos de los sapos para simular las espinas que no tenían. Tan convencido debía de estar Kammerer de que las tesis lamarckianas eran ciertas que no dudó en aportar datos para apoyarlas, aunque fuesen falsos.
Otro de los mayores fraudes descubiertos es el de Sir Cyril Burt, que murió en 1972 a los 88 años de edad y fue considerado durante toda su vida como uno de los grandes maestros en el área de la Psicología en Inglaterra. El engaño perduró hasta 4 años después de su muerte, después de una vida en la que ganó numerosos premios y honores, entre ellos el ser nombrado Sir por la reina de Inglaterra. Los trabajos de Burt se basan en el estudio del coeficiente de inteligencia (IQ) de hermanos gemelos que, con un contenido genético idéntico (monocigóticos), han sido educados por familias distintas. La hipótesis de partida es que si los IQ de estos gemelos son similares, se debe a que la educación en ambientes distintos no repercute en el desarrollo intelectual y que por lo tanto se debe al carácter hereditario de la inteligencia. Según los resultados de Burt, los IQ de gemelos que viven separados tienen un valor muy parecido y su conclusión es por tanto que la inteligencia es fundamentalmente hereditaria. Varias evidencias sirvieron para descubrir el fraude. Por ejemplo, publicaba sus trabajos con 2 colaboradoras, Margaret Howard y J. Conway, que se suponía que realizaban el trabajo de campo haciendo las entrevistas a los gemelos. Pero, después de la muerte de Burt, un periodista descubrió que estas 2 colaboradoras no existían. Otra evidencia que hizo sospechar que los datos eran fraudulentos fue que los coeficientes de correlación para los IQ de las 4 series estudiadas por Burt de gemelos que habían vivido separados a lo largo de su vida eran idénticos hasta en 3 cifras decimales para cada una de las series. La prueba definitiva del fraude la aportó el historiador británico L. Hearnshaw, un admirador de Cyril Burt. A la muerte de Burt, su hermana encargó a Hearnshaw que escribiera la biografía de su hermano. Para este trabajo, Hearnshaw consultó la correspondencia de Burt y el diario personal que había llevado durante toda su vida. La información contenida en las anotaciones de Burt llevó a su biógrafo a concluir que solo los datos acerca de los 15 primeros pares de gemelos que Burt estudió en 1943 correspondían a observaciones verídicas. A pesar de haberse descubierto el fraude, para algunos autores, el trabajo de Burt sigue siendo el principal argumento a favor de la transmisión hereditaria de la inteligencia.
Por último, un equipo de científicos de Corea del Sur dirigido por Hwang Woo-Suk afirmó, en el año 2004 en la revista Science, haber conseguido por primera vez en la historia la clonación con éxito de embriones humanos y posteriormente la obtención de células madre a partir de ellos. Se creó así la esperanza en millones de personas que vieron cercana la posibilidad de cura de muchas enfermedades como el Alzheimer, la diabetes, los infartos, etc. En diciembre de 2005 se comprobó que los artículos publicados se basaron en datos falsificados, lo que levantó un gran escándalo en la comunidad científica y en la opinión pública mundial. Woo-suk fue expulsado de la Universidad de Seúl, se cerró su laboratorio y fue condenado a 2 años de cárcel después de admitir haber falsificado datos de sus investigaciones.
Un registro de los casos de fraudes científicos que se han denunciado hasta 2014 se puede encontrar en The Office of Research Integrity, del Departamento de Salud y Servicios Sociales de Estados Unidos (http://ori.hhs.gov/case_summary).
Para elaborar este post hemos acudido también al artículo de Ricardo Martínez disponible en la dirección: https://interferencia.cl/articulos/las-trampas-para-inflar-el-rendimiento-de-los-academicos.
He dirigido durante bastantes años una revista de las indexadas, he pertenecido al comité de redacción y he sido referee de varias revistas españolas y extranjeras. Por eso, no me ha sorprendido ninguno de los fraudes y artimañas que cita el autor del artículo. Solo me voy a permitir añadir algunos detalles. Es falso lo del método ciego para la revisión de los artículos. Hay miles de detalles en el artículo que permiten conocer la autoría del mismo. Por ello, si el autor del artículo no es de la misma “cuerda científica” que los revisores, no se deja pasar. Para no extenderme demasiado, me voy a limitar a citar un caso que se hizo muy famoso en España. Hace alrededor de veinte años un profesor universitario mandó un artículo a una revista “indexada” española (se editaba desde un departamento universitario de la Universidad de Barcelona). El artículo no pasó ni siquiera el filtro del director de la revista (el autor del artículo era profesor de otra universidad catalana). Al ver rechazado su artículo, se puso en contacto con un amigo alemán (también profesor universitario) y lo mandó a la misma revista, pero ahora firmado por un brillante profesor universitario alemán inexistente. Como era de esperar, el artículo fue publicado. Afortunadamente, el autor del artículo hizo pública la maniobra y fue entrevistado en algunos diarios de tirada nacional. Por último, quiero testimoniar mi enhorabuena a Javier Amo (a quien no conozco de nada.