Herramientas como ChatGPT son capaces de generar artículos científicos que parecen auténticos, e identificar cuáles son falsos se ha convertido en un desafío crucial. Imagínate leer un artículo sobre un tema que no dominas y descubrir más tarde que es completamente fabricado por una IA. Para abordar este problema, Ahmed Abdeen Hamed, investigador visitante en la Universidad de Binghamton, ha desarrollado un algoritmo de aprendizaje automático llamado xFakeSci, que puede detectar hasta el 94% de los artículos falsos, casi el doble de eficaz que las técnicas de minería de datos comunes.
¿Cómo funciona xFakeSci?
Hamed, cuyo principal campo de investigación es la informática biomédica, se interesó por la autenticidad del conocimiento debido a su trabajo con publicaciones médicas, ensayos clínicos y minería de recursos en línea. Durante la pandemia global, observó un incremento en la difusión de investigaciones falsas, lo que inspiró su trabajo en xFakeSci.
Para probar su algoritmo, Hamed y su colaborador Xindong Wu, profesor en la Universidad de Tecnología de Hefei en China, crearon 50 artículos falsos sobre temas médicos populares como el Alzheimer, el cáncer y la depresión, y los compararon con el mismo número de artículos reales. Utilizando las mismas palabras clave que se emplean para extraer literatura de bases de datos médicas como PubMed, aseguraron una base común de comparación.
El algoritmo xFakeSci analiza dos características principales en la escritura de los artículos. Primero, la cantidad de bigramas, que son dos palabras que aparecen frecuentemente juntas, como «cambio climático» o «ensayos clínicos». En los artículos falsos, el número de bigramas es notablemente menor, pero están altamente conectados a otros términos y conceptos en el texto. En cambio, en los artículos reales, los bigramas son más variados y menos conectados, reflejando una diversidad y complejidad que la IA aún no puede replicar (Tech Xplore) (Tech and Science Post) (GlobalSpec).
Diferencias entre la escritura humana y la de IA
Hamed y Wu teorizaron que las diferencias en el estilo de escritura se deben a los distintos objetivos entre los investigadores humanos y las IAs. Mientras que los científicos humanos buscan reportar de manera honesta lo que ocurrió durante un experimento y el método usado, ChatGPT intenta convencer al lector utilizando las palabras más significativas y relevantes, enfocándose en la profundidad de un solo punto en lugar de la amplitud de una investigación real.
Mohammad T. Khasawneh, profesor distinguido y presidente del Departamento de Ciencias de Sistemas e Ingeniería Industrial, elogió la investigación de Hamed, destacando su relevancia en una era donde los ‘deepfakes’ son parte de la conversación pública. La capacidad de xFakeSci para detectar artículos falsos es crucial para mantener la integridad de la ciencia y asegurar que la información difundida sea veraz.
El futuro de xFakeSci y la detección de falsos científicos
A pesar del éxito inicial de xFakeSci, Hamed reconoce que hay mucho trabajo por delante. Planea expandir el alcance de su investigación para incluir temas más allá de la medicina, abarcando ingeniería, otras ciencias y humanidades. Además, anticipa que las IAs se volverán más sofisticadas, lo que dificultará cada vez más la distinción entre lo real y lo falso. Por lo tanto, es fundamental diseñar un algoritmo universal que no dependa de la versión de IA utilizada.
La creación de xFakeSci ha mejorado la detección de artículos falsos y ha elevado la conciencia sobre este problema creciente. Aunque el algoritmo atrapa el 94% de los artículos generados por IA, esto significa que 6 de cada 100 aún logran pasar desapercibidos, un recordatorio de la necesidad de mantenerse vigilantes y seguir innovando en este campo.
En mi opinión, la investigación de Hamed es un paso crucial hacia la preservación de la integridad científica. En WWWhatsnew.com, donde frecuentemente exploramos temas relacionados con la tecnología y la inteligencia artificial, es vital abordar cómo estas herramientas pueden tanto ayudar como perjudicar la investigación científica.