Cada vez hay más contenido en Internet creado por ChatGPT, es un hecho, y no hay vuelta atrás. En general, eso no representa ningún problema, siempre y cuando se trate de información útil, real y verificada por humanos, pero en muchas ocasiones no es así, y eso genera un problema tremendo.
Ahora, un equipo de la Universidad de Kansas ha marcado un hito al desarrollar un sistema de inteligencia artificial capaz de discernir con asombrosa precisión entre los textos escritos por seres humanos y aquellos generados por computadoras, por lo menos entre textos científicos publicados en revistas especializadas. Este avance, que ha encontrado su lugar en las páginas de la prestigiosa revista Cell Reports Physical Science, no es solo un logro técnico, sino un faro de esperanza para la integridad de las publicaciones científicas.
La profesora Heather Desaire y su equipo han tomado la delantera en esta cruzada por la autenticidad. Han creado un detector de IA que, en lugar de ser un todoterreno, es un especialista. Se ha entrenado meticulosamente con textos de la American Chemical Society, y su campo de batalla son los ensayos científicos, particularmente en química. La precisión de este sistema es tal que ha logrado identificar los textos genuinamente humanos en todas las ocasiones, y casi igual de bien los generados por IA a partir de pasajes introductorios.
Este logro cobra mayor relevancia cuando se compara con otros sistemas como ZeroGPT y las herramientas de OpenAI, que, aunque relativamente eficientes en un espectro más amplio, tropiezan en el nicho de la química. La herramienta de la Universidad de Kansas se erige así como un guardián mucho más fiable de la autenticidad científica.
El impacto de este desarrollo se extiende más allá de los laboratorios y las bibliotecas digitales. Las revistas científicas, conscientes de la amenaza que supone la IA para la calidad y la veracidad de sus contenidos, están reescribiendo sus reglas. Buscan blindarse contra la invasión de los textos generados por máquinas y asegurar que cualquier uso de IA en la composición de artículos sea transparente y honesto.
La preocupación no es menor: el contenido generado por IA podría desencadenar una avalancha de manuscritos de dudosa utilidad, alterar el equilibrio de las citaciones favoreciendo a los trabajos ya reconocidos y, lo que es más alarmante, colar falsedades en los documentos científicos. Desaire ilustra esta preocupación con una anécdota personal: un perfil biográfico generado por ChatGPT lleno de logros impresionantes, pero completamente ficticios. Este incidente, aunque anecdótico y hasta cómico, subraya el peligro real de las «alucinaciones» de la IA.
Sin embargo, la visión que tiene Desaire sobre el futuro es optimista. Ella cree firmemente que es posible mantener la integridad de las publicaciones científicas y que, con las herramientas adecuadas, los editores pueden liderar la detección de la contaminación por IA.
Personalmente, no soy tan optimista.