diciembre 10, 2025
ba29ce7_1706537770738-media-appel-ia-4.jpg

La inteligencia artificial (IA), y sobre todo su componente llamado “generativo” presente en muchos chatbots (GPT, Gemini u otros Claudes), sigue sacudiendo el mundo científico. Ahora es uno de los pilares del control de calidad de la investigación el que está siendo sacudido, la revisión por pares o revisión por pares en Inglés. Este sistema se basa en la evaluación de un artículo presentado a una revista por diversos expertos del sector. Sus informes son utilizados por el editor para decidir si publica o no el manuscrito y solicitar cambios a los autores.

“Pero este sistema está sufriendo”recuerda Thomas Lemberger, responsable del sector de Ciencia Abierta de la editorial EMBO Press, especializada en ciencias de la vida. Los problemas son conocidos: lentitud (varios meses, incluso más de un año), dificultad para encontrar expertos, voluntarios y gente superpoblada y, lamentablemente, el proceso no es infalible. En 2024, Naturaleza Y Ciencia retiraron tres artículos cada uno, según la base de datos del medio especializado reloj de retracción.

La inteligencia artificial empeora la situación con los informes generados automáticamente y, por tanto, ya no por “pares”. La empresa Pangram (que comercializa, entre otras cosas, software de detección de texto generado por IA) estima que el 21% de los 70.000 informes presentados para una conferencia emblemática en el campo del aprendizaje automático en 2024 (la Conferencia Internacional sobre Representaciones del Aprendizaje) fueron “completamente escrito por una inteligencia artificial”. Y medio contenido “Intervenciones de inteligencia artificial”. Por cierto, unos cientos de artículos de 19.000 se escribieron de forma totalmente automática.

A pesar de la dificultad para identificar textos artificiales, Pangram confirma lo que los editores ven todos los días: los revisores no dudan en hacer trampa. “Informar sin decir que utilizamos inteligencia artificial es tóxico. Los autores realmente no saben qué actitud adoptar ante estos informes en los que sienten que algo anda mal.asegura Thomas Lemberger. Si las IA comienzan a escribir artículos evaluados por otras IA, este círculo vicioso corre el riesgo de desencadenarse aún más. confianza en la ciencia.

Te queda el 62,19% de este artículo por leer. El resto está reservado para suscriptores.

Referencia

About The Author