La llegada de GPT-5 ha generado un amplio debate en la comunidad tecnológica. Prometido como un modelo con inteligencia «nivel doctorado», ha sido puesto a prueba desde su lanzamiento por usuarios curiosos, expertos en inteligencia artificial y hasta por sus propios creadores. Lejos de cumplir con las altas expectativas, el modelo ha mostrado una tendencia preocupante: proporcionar información falsa con total seguridad.
El problema, conocido técnicamente como alucinaciones (hallucinations), se refiere a las ocasiones en que un modelo de lenguaje genera respuestas incorrectas, pero lo hace con un tono tan convincente que puede engañar incluso a usuarios experimentados. Y aunque este comportamiento no es nuevo en los LLMs (Large Language Models), sorprende que GPT-5 mantenga e incluso agrave este fenómeno en ciertas circunstancias. Continúa leyendo «GPT-5 y la confiabilidad de los modelos de lenguaje: entre errores, expectativas y realidades»