La inteligencia artificial ha dado pasos enormes en los últimos años, especialmente en el desarrollo de modelos capaces de razonar. Sin embargo, no todo lo que brilla es oro: los nuevos modelos de OpenAI, o3 y o4-mini, presentan una contradicción que ha sorprendido a muchos expertos. A pesar de ser más avanzados en tareas como la programación o las matemáticas, cometen más errores al inventarse información, un fenómeno conocido como alucinaciones en IA. Continúa leyendo «Los nuevos modelos de OpenAI son más inteligentes… pero también se inventan más cosas»
Etiqueta: alucinaciones en IA
Cómo reducir «alucinaciones» en IA usando AWS
En el marco del evento AWS re:Invent 2024, Amazon Web Services (AWS) presentó una serie de herramientas diseñadas para abordar algunos de los mayores desafíos en la implementación de inteligencia artificial generativa. Entre las novedades destaca Automated Reasoning checks, un servicio innovador para mitigar el problema de las «alucinaciones» en los modelos de IA, y Model Distillation, una técnica que busca optimizar el uso de modelos al transferir conocimientos entre ellos.
Continúa leyendo «Cómo reducir «alucinaciones» en IA usando AWS»
Problemas de “alucinación” en Whisper: ¿un obstáculo para su adopción en sectores críticos?
La tecnología de transcripción Whisper de OpenAI ha generado grandes expectativas en el mundo de la inteligencia artificial. Aclamada por su capacidad para convertir audio en texto, Whisper prometía mejorar la precisión y rapidez en transcripciones automáticas, convirtiéndose en una herramienta ideal para diferentes sectores, desde la academia hasta el ámbito médico. Sin embargo, recientemente, investigadores han alertado sobre un problema preocupante: el modelo tiene una tendencia significativa a «alucinar», o generar contenido ficticio que no estaba en el audio original. Esto no solo afecta la fiabilidad de Whisper sino también su viabilidad en contextos de alto riesgo, como hospitales y tribunales.