Durante estos años, optimizar respuestas de un modelo de lenguaje se ha convertido en una especie de cocina experimental: cambias el tono, ajustas instrucciones, añades ejemplos, vuelves a probar. En ese contexto, resulta casi cómico que una técnica tan literal como duplicar la petición —es decir, escribir el mismo texto dos veces seguidas— pueda mejorar el rendimiento en tareas donde no hace falta un razonamiento largo.
La idea es muy simple: el input que normalmente sería <PETICIÓN> pasa a ser <PETICIÓN><PETICIÓN>. No es una reformulación elegante ni un “prompt engineering” sofisticado. Es repetir, tal cual. Y, según los experimentos descritos por investigadores de Google Research, esta repetición puede aumentar de manera notable la precisión en tareas “no razonadoras”, que son justo las que más abundan en producto: extracción de datos, clasificación, respuestas cortas, cumplimiento de instrucciones concretas, recuperación fiel de un detalle dentro de un texto. Continúa leyendo «Repetir el prompt: una forma sorprendentemente simple de mejorar la precisión de los LLM en tareas directas»