El oscuro dilema de las citas de ChatGPT: ¿Un desafío para los editores de contenido?

Publicado el

ChatGPT y la precisión de citas Un desafío para los medios

La aparición de herramientas de inteligencia artificial generativa como ChatGPT ha revolucionado el acceso a la información, pero también ha encendido alarmas entre los editores de contenido. Un reciente estudio del Tow Center for Digital Journalism de la Columbia Journalism School arroja luz sobre un problema clave: la falta de precisión en las citas generadas por este popular chatbot de OpenAI.

El problema de las citas inexactas

La investigación analizó cómo ChatGPT cita contenidos periodísticos, utilizando 200 citas extraídas de artículos de 20 medios distintos, como The New York Times, The Washington Post y The Financial Times. Aunque algunos de estos medios tienen acuerdos de licencia con OpenAI, los resultados fueron desalentadores: las citas eran incorrectas en un 76% de los casos, y solo en siete instancias el chatbot reconoció su incapacidad para proporcionar una respuesta precisa.

Según el estudio, el bot presenta «un espectro de precisión», con casos de citas correctas, incorrectas o parcialmente erróneas. Lo más alarmante es que incluso cuando ChatGPT no tiene acceso directo a ciertos contenidos (debido a bloqueos de rastreadores como robots.txt), tiende a confabular información, inventando citas o atribuyéndolas a fuentes incorrectas.

Riesgos para los editores

Desde WWWhatsnew creemos que este fenómeno tiene implicaciones serias para los medios. Por un lado, las citas inexactas pueden dañar la reputación de los editores, especialmente si los lectores perciben errores que parecen provenir de las fuentes originales. Por otro, cuando el bot dirige a los usuarios a sitios que plagian contenidos de calidad, fomenta indirectamente la copia no autorizada y perjudica los ingresos de los creadores legítimos.

Un caso mencionado en el estudio ilustra cómo ChatGPT atribuyó una cita a un sitio que había plagiado un artículo del New York Times, omitiendo la fuente original. Este tipo de situaciones no solo erosiona la credibilidad de los medios, sino que también plantea preguntas éticas sobre cómo se recopilan y validan los datos en modelos de inteligencia artificial.

El desafío de la transparencia

Un aspecto clave señalado por los investigadores es la falta de transparencia de ChatGPT. A diferencia de los motores de búsqueda tradicionales, como Google, que pueden indicar cuando no encuentran resultados exactos, el chatbot suele responder con una confianza aparente, incluso cuando sus respuestas son incorrectas. Esto dificulta que los usuarios evalúen la validez de las afirmaciones y afecta la percepción de confianza en la información ofrecida.

En mi opinión, este es uno de los mayores desafíos para OpenAI: establecer mecanismos claros que permitan a los usuarios distinguir entre información confiable y errores generados por el modelo. Sin esta transparencia, el riesgo de desinformación aumenta considerablemente.

¿Qué pueden hacer los medios?

Aunque algunos editores han bloqueado los rastreadores de OpenAI, el estudio muestra que esto no es una solución completa. Incluso cuando un medio prohíbe el acceso directo, ChatGPT puede acceder indirectamente a su contenido a través de terceros. Por otro lado, tener un acuerdo de licencia tampoco garantiza una representación precisa de los contenidos.

Desde WWWhatsnew consideramos que los medios deben abogar por una mayor regulación y colaboración con empresas como OpenAI. Esto podría incluir acuerdos que aseguren la atribución correcta de las fuentes y mecanismos para denunciar errores. Además, los editores podrían considerar implementar marcas de agua digitales o sistemas que identifiquen automáticamente el contenido original.

Un llamado a la mejora

Aunque OpenAI respondió al estudio asegurando que está trabajando en mejorar la precisión de las citas y respetar las preferencias de los editores, queda claro que el sistema aún tiene mucho por mejorar. El camino hacia una convivencia armoniosa entre la inteligencia artificial y los medios dependerá de la voluntad de colaboración entre ambas partes y de la implementación de soluciones tecnológicas y éticas sólidas.