Un nuevo estudio de la BBC ha revelado que los asistentes de inteligencia artificial tienen serios problemas para proporcionar información precisa sobre noticias actuales. La investigación evaluó la capacidad de plataformas como ChatGPT, Microsoft Copilot, Google Gemini y Perplexity para responder preguntas relacionadas con noticias y citar artículos de la BBC como fuente.
Resultados clave del estudio
Los hallazgos del estudio indican que:
- 51% de las respuestas presentaban problemas significativos de precisión.
- 91% de las respuestas contenían algún tipo de error.
- 19% de las respuestas que citaban contenido de la BBC incluían errores factuales, como fechas o estadísticas incorrectas.
- 13% de las citas de artículos de la BBC estaban alteradas o fabricadas.
- Los chatbots tenían dificultades para distinguir entre hechos y opiniones y proporcionar el contexto adecuado.
La conclusión de los periodistas de la BBC fue clara:
“Los asistentes de IA no pueden ser considerados fuentes confiables de noticias en la actualidad y corren el riesgo de desinformar a la audiencia.”
Ejemplos de errores detectados
Algunos de los errores más destacados en las respuestas de los chatbots fueron:
- Google Gemini afirmó incorrectamente que «el NHS recomienda no comenzar a vapear”, cuando en realidad el organismo lo recomienda como una herramienta para dejar de fumar.
- ChatGPT y Perplexity divulgaron información errónea sobre la muerte del presentador de televisión Dr. Michael Mosley.
- Varios asistentes afirmaron que ciertos líderes políticos aún estaban en funciones, a pesar de haber renunciado o sido reemplazados.
¿Por qué esto es preocupante?
La BBC advierte que la difusión frecuente de errores en noticias genera serias preocupaciones sobre la propagación de desinformación. Incluso cuando las afirmaciones son técnicamente correctas, pueden inducir a error si carecen de contexto.
El informe destaca:
«Es esencial que la audiencia pueda confiar en que las noticias son precisas, ya sea en televisión, radio, plataformas digitales o a través de asistentes de IA. La desinformación puede tener consecuencias reales para la sociedad.”
Estos hallazgos coinciden con otros estudios recientes sobre la confianza del público en la IA, que indican que las personas siguen prefiriendo el periodismo humano frente a la automatización de noticias.
Implicaciones para el marketing y la generación de contenido
Para los creadores de contenido y profesionales del marketing digital, este estudio deja algunas lecciones clave sobre el uso de herramientas de inteligencia artificial:
- La precisión es fundamental: Las marcas deben garantizar que su contenido sea verificado antes de su publicación para evitar dañar su credibilidad.
- Revisión humana indispensable: Aunque la IA puede agilizar la creación de contenido, la supervisión de un editor es esencial para detectar errores y mejorar la calidad.
- Falta de contexto: La IA aún tiene dificultades para comprender el matiz de ciertas noticias, lo que puede afectar la precisión del mensaje.
- Atribución correcta: Si se usan herramientas de IA para resumir fuentes, es crucial verificar y citar correctamente los datos originales.
El estudio de la BBC refuerza la idea de que, si bien la inteligencia artificial tiene el potencial de transformar la generación de contenido, su uso en la difusión de noticias aún requiere un enfoque cuidadoso y supervisión humana.
Desde WWWhatsnew, creemos que los avances en IA deben ir acompañados de medidas para garantizar la veracidad y confiabilidad de la información, especialmente en un mundo donde la desinformación puede propagarse rápidamente.