Problemas de “alucinación” en Whisper: ¿un obstáculo para su adopción en sectores críticos?

La tecnología de transcripción Whisper de OpenAI ha generado grandes expectativas en el mundo de la inteligencia artificial. Aclamada por su capacidad para convertir audio en texto, Whisper prometía mejorar la precisión y rapidez en transcripciones automáticas, convirtiéndose en una herramienta ideal para diferentes sectores, desde la academia hasta el ámbito médico. Sin embargo, recientemente, investigadores han alertado sobre un problema preocupante: el modelo tiene una tendencia significativa a «alucinar», o generar contenido ficticio que no estaba en el audio original. Esto no solo afecta la fiabilidad de Whisper sino también su viabilidad en contextos de alto riesgo, como hospitales y tribunales.

Continúa leyendo «Problemas de “alucinación” en Whisper: ¿un obstáculo para su adopción en sectores críticos?»