Los motores de búsqueda basados en inteligencia artificial han surgido como una alternativa moderna a los buscadores tradicionales, prometiendo respuestas directas y concisas sin la necesidad de explorar enlaces. Sin embargo, un estudio reciente del Tow Center for Digital Journalism de Columbia Journalism Review (CJR) ha revelado que estas herramientas presentan graves problemas de precisión, con tasas de error superiores al 60%.
Errores frecuentes en las respuestas generadas por IA
La investigación, llevada a cabo por Klaudia Jaźwińska y Aisvarya Chandrasekar, evaluó el desempeño de ocho buscadores basados en IA con funciones de búsqueda en vivo. Se realizaron 1.600 consultas con fragmentos de artículos de noticias reales, solicitando a las herramientas identificar información básica como el titular, la fuente original, la fecha de publicación y la URL del artículo. Los resultados fueron alarmantes:
- Más del 60% de las respuestas fueron incorrectas.
- El modelo Grok 3 alcanzó la mayor tasa de error, con un 94% de respuestas incorrectas.
- ChatGPT Search erró en el 67% de los casos.
- Perplexity, aunque más preciso que otros modelos, también falló en el 37% de las consultas.
Confianza en respuestas erróneas: Un problema grave
Uno de los hallazgos más preocupantes del estudio es la tendencia de los modelos a ofrecer respuestas erróneas con gran seguridad. En lugar de rechazar consultas cuando carecen de información fiable, generan respuestas especulativas pero convincentes. Esto es un problema porque los usuarios pueden aceptar estas respuestas como verdaderas sin cuestionarlas.
Aún más preocupante es que las versiones de pago de algunos buscadores de IA, como Perplexity Pro ($20/mes) y Grok 3 premium ($40/mes), mostraron una tendencia a cometer más errores que sus versiones gratuitas, a pesar de proporcionar más respuestas.
El problema de las fuentes y citaciones
El estudio también reveló que estos motores de búsqueda de IA tienen serias deficiencias en cuanto a la citación de fuentes:
- Ignoran restricciones de acceso: Perplexity accedió a contenido de National Geographic a pesar de que la publicación bloquea sus rastreadores en su protocolo de exclusión de robots (robots.txt).
- Citan versiones sindicadas en lugar de fuentes originales: En lugar de dirigir a los usuarios a la página oficial del editor, enlazan a versiones sindicadas en plataformas como Yahoo News.
- URLs falsas y enlaces rotos: Más de la mitad de los enlaces generados por Google Gemini y Grok 3 llevaban a páginas inexistentes. En el caso de Grok 3, de 200 citaciones evaluadas, 154 dirigieron a enlaces rotos.
Un dilema para los editores y el futuro de la información online
Este estudio pone en una situación complicada a los medios de comunicación. Por un lado, permitir el acceso a estos buscadores de IA puede suponer una pérdida de tráfico web y atribución. Por otro lado, bloquear estos rastreadores podría llevar a que la información sea utilizada de manera aún menos controlada.
Mark Howard, director de operaciones de Time Magazine, destacó su preocupación sobre la transparencia y el control del contenido en estas plataformas. No obstante, también señaló que estos modelos están en constante mejora: “Hoy es el peor día para estas herramientas; solo pueden mejorar con el tiempo”.
Este estudio es una llamada de atención para los desarrolladores de IA. Si bien las herramientas de IA han demostrado ser poderosas, la falta de fiabilidad en la búsqueda de información periodística es un problema serio que debe abordarse con urgencia. Las empresas de tecnología deben priorizar la precisión y la transparencia en sus modelos si esperan ganarse la confianza del público.