Cursor, el editor de código con IA más popular del mercado (más de un millón de usuarios activos diarios, valoración cercana a 50.000 millones), acaba de lanzar Composer 2, su primer modelo propio entrenado exclusivamente con datos de código. Los números: 61,7% en Terminal-Bench 2.0 (vs 58,0% de Claude Opus 4.6), 73,7% en SWE-bench Multilingual, y un salto de 17 puntos respecto a Composer 1.5. A 0,50 dólares por millón de tokens de entrada y 2,50 de salida —diez veces más barato que Opus 4.6 (5/25/25 ) y cinco veces más que GPT-5.4 (2,50/15/15 )—.
Matiz importante: GPT-5.4 sigue liderando Terminal-Bench 2.0 con 75,1%. Composer 2 supera a Claude pero no a GPT. La propuesta es «mejor ratio calidad-precio para codificación», no «somos los mejores en todo».
¿Por qué construir un modelo propio?
Porque Cursor estaba atrapada en una paradoja económica. Dependía al 100% de Anthropic y OpenAI, que son también sus competidores directos (Claude Code, Codex). Una suscripción a Claude Code de 200/mesconsumehasta5.000/mes consume hasta 5.000 en computación real. Anthropic puede subsidiar esa diferencia; Cursor, que revende esos modelos, no.
Construir Composer 2 le da control sobre coste por token, independencia parcial y un producto diferenciado. El cofundador Aman Sanger fue directo: «No te va a ayudar con los impuestos. No va a escribir poemas.» Es un modelo de propósito único, y esa especialización es lo que lo hace viable.
La técnica clave: autocompresión
En sesiones largas de codificación, los modelos pierden contexto. Composer 2 usa «self-summarization»: aprende por refuerzo a comprimir su propio contexto durante la sesión, reduciendo errores de compactación en un 50% con una quinta parte de los tokens. Mantiene coherencia en tareas que requieren cientos de acciones secuenciales —refactorizaciones completas, corrección de bugs multi-archivo— donde los generalistas se degradan.
El pipeline: preentrenamiento continuo exclusivamente con código (primera vez que Cursor hace esto), seguido de refuerzo sobre tareas de largo horizonte. Soporte hasta 200.000 tokens, con acceso al stack completo de Cursor: búsqueda semántica, edición de archivos, shell, navegador y web.
El debate de fondo: ¿cuánto espacio queda para un intermediario?
Composer 2 es la primera vez que un editor de código construye un modelo de frontera propio. Pero la paradoja no desaparece: Cursor sigue necesitando a OpenAI y Anthropic para todo lo que no sea código. Y ambos están invirtiendo agresivamente en sus propias herramientas de codificación (Claude Code con Channels, OpenAI con su superapp).
Los comentarios en X muestran migración de usuarios avanzados de Cursor a Claude Code, especialmente en flujos terminal-first. La contrapartida de Cursor es que no vende solo un modelo: vende una experiencia de editor integrada. Si esa experiencia deja de ser diferenciadora, el modelo propio por sí solo no será suficiente.
Mi valoración: Composer 2 es un logro técnico genuino y un movimiento necesario. Cinco meses para pasar de Composer 1.0 a un modelo que supera a Opus 4.6 es velocidad impresionante. Pero la carrera acaba de empezar. Anthropic y OpenAI no van a quedarse mirando. Cursor ha ganado tiempo y espacio de maniobra; ahora necesita usarlos para construir algo que sus proveedores-competidores no puedan replicar.
Preguntas frecuentes
¿Qué es Composer 2? Primer modelo de IA propio de Cursor, entrenado con datos de código, para tareas de programación largas dentro del editor.
¿Cuánto cuesta? 0,50/2,50 $/M tokens (estándar). 1,50/7,50 (Fast). Diez veces más barato que Claude Opus 4.6.
¿Supera a GPT-5.4? No en Terminal-Bench (75,1% vs 61,7%). Sí supera a Claude Opus 4.6 (58,0%).