Claude abre herramientas “premium” a su plan gratuito: archivos, conectores, skills y compaction

Publicado el

Ilustración digital artística de un desarrollador colaborando con una inteligencia artificial brillante en un entorno futurista lleno de código flotante, visualizaciones interactivas y símbolos de memoria (1

Anthropic ha decidido mover una ficha relevante en su producto estrella, Claude: varias funciones que hasta ahora estaban reservadas a sus planes de pago pasan a estar disponibles en el plan gratuito, siempre que el usuario tenga una cuenta y acceda con sesión iniciada. El anuncio se ha comunicado desde los canales oficiales de Claude y se ha recogido en medios como Gadgets 360 y Moneycontrol.

La lectura práctica es sencilla: Claude deja de ser solo “un chat que responde” para acercarse más a una mesa de trabajo. Si antes el usuario gratuito recibía texto y tenía que convertirlo manualmente en un documento, una hoja de cálculo o un archivo con formato, ahora puede pedir el resultado ya empaquetado. Si antes el asistente vivía aislado de tus carpetas y tus herramientas diarias, ahora puede conectarse a algunas de ellas. Si antes cada conversación larga terminaba pareciéndose a una madeja de hilos cruzados, ahora entra un mecanismo para ordenar el pasado y seguir.

Este movimiento llega en un momento en el que el mercado está experimentando con fórmulas de monetización y distribución de funciones. OpenAI, por ejemplo, ha confirmado que está probando anuncios en ChatGPT en Estados Unidos para usuarios adultos registrados en los niveles Free y Go, manteniendo sin anuncios los planes de pago. En ese contexto, ofrecer más capacidades sin coste se interpreta como una forma de ganar tracción sin obligar al usuario a pasar por caja desde el minuto uno.

File Creation: cuando el chat te entrega el documento ya “planchado”

La primera novedad que destaca es File Creation, una función que permite crear archivos descargables directamente desde la conversación. La idea es parecida a pedir en una cafetería un café con leche y que te lo sirvan ya con la proporción justa, en vez de darte café por un lado y leche por otro para que lo mezcles tú: reduces fricción y ahorras tiempo.

Según el centro de ayuda de Claude, esta capacidad incluye formatos habituales como Excel (.xlsx), PowerPoint (.pptx), Word (.docx) y PDF, con la posibilidad de descargar el archivo o guardarlo directamente en Google Drive, y con un límite de tamaño por archivo de 30 MB. En la práctica, esto se traduce en usos cotidianos muy claros: un profesor que quiere una rúbrica en Word, una persona que necesita una hoja de gastos en Excel, un equipo que prepara una presentación rápida con estructura y títulos, o alguien que quiere convertir un texto en un PDF con apariencia “de documento final”.

Este tipo de función también cambia el tipo de petición que hacemos. En lugar de “redáctame un informe”, empieza a tener sentido pedir “prepárame un informe en PDF con portada, secciones y un cuadro de datos”. El matiz es importante: ya no se trata solo de generar contenido, sino de entregarlo en el recipiente adecuado.

Connectors y MCP: el puente entre el asistente y tus herramientas

La segunda pieza es Connectors, que permite conectar Claude con “hubs” de datos y aplicaciones de terceros. En el anuncio recogido por Gadgets 360 se citan ejemplos como Google Drive, Notion o Slack. El motor de esta integración es el Model Context Protocol (MCP), un enfoque que varias plataformas están adoptando para que un asistente pueda leer y escribir en espacios externos con más control.

Una forma fácil de imaginarlo es como un “enchufe universal” para IA: en vez de copiar y pegar información entre ventanas, el asistente puede ir a buscarla donde vive. El propio soporte de Notion describe MCP como un puente que permite a asistentes como Claude o ChatGPT conectarse al espacio de trabajo para leer y escribir páginas en tiempo real.

Esto abre escenarios interesantes, con una condición: que el usuario entienda bien qué permisos está concediendo. Con conectores, Claude puede apoyarse en documentos reales de un proyecto para responder con más contexto. Si estás preparando una propuesta y tus datos están repartidos entre Drive y una base de Notion, el conector reduce el “trabajo de mensajero” que normalmente recae en ti. A nivel de productividad, es un salto cualitativo porque acerca a Claude a comportarse como un compañero de oficina que puede consultar la carpeta compartida, en vez de alguien que solo escucha lo que le cuentas de memoria.

Skills: enseñar a Claude tu forma de trabajar sin repetirlo cada día

La tercera función son las Skills, que Anthropic plantea como instrucciones personalizadas combinadas con una base de conocimiento asociada. En el texto de Gadgets 360 se describe como una manera de evitar tener que repetir el mismo “brief” una y otra vez cuando abres nuevos chats o proyectos.

En términos domésticos, una skill se parece a dejar una nota pegada en la nevera que dice “en esta casa el café se toma solo y el pan se tuesta poco”. No es una conversación nueva cada mañana; es una preferencia persistente. Trasladado al trabajo, sirve para fijar un tono editorial, una estructura de respuesta, un marco de estilo o un contexto de proyecto. En entornos donde varias personas interactúan con el mismo asistente, también puede ayudar a reducir la variabilidad: menos “Claude hoy entendió esto” y más “Claude trabaja bajo las mismas reglas”.

La parte delicada es el equilibrio entre personalización y dependencia. Cuanto más útil sea una skill, más tentador será volcar en ella información sensible. La recomendación prudente es tratarla como tratarías una plantilla corporativa: útil y estructurada, sin incluir secretos que no deberían salir de tu control.

Compaction: conversaciones largas sin perder el hilo (ni chocar con el límite)

La cuarta incorporación es Compaction, una función pensada para conversaciones extensas. Claude la presenta como un sistema que resume contexto anterior de forma automática para poder continuar sin “empezar de cero”. En la documentación de Anthropic, compaction se define como una manera de extender la longitud efectiva de contexto resumiendo partes antiguas cuando se acerca el límite de la ventana de contexto, algo especialmente útil en chats de muchos turnos y tareas largas. Incluso AWS, en su documentación sobre Claude en Bedrock, describe la compaction del lado del servidor como una estrategia recomendada para gestionar contexto en flujos prolongados.

La metáfora aquí es la de una reunión larga. Cuando llevas una hora hablando, alguien suele decir: “Vale, recapitulemos”. Compaction hace ese papel de secretario que levanta acta y te devuelve el estado de la cuestión para que la conversación siga avanzando. Para el usuario, el beneficio es claro: menos interrupciones por límites y menos esfuerzo de reexplicar.

Hay un matiz importante: resumir siempre implica perder detalle. En tareas creativas o de planificación general, esto suele ser aceptable. En procesos que dependen de precisión extrema —por ejemplo, una investigación con datos finos o un desarrollo técnico donde una decisión se apoya en una frase exacta de hace 200 mensajes— conviene ser consciente de que el “acta” puede simplificar demasiado. La compaction es una herramienta para continuidad, no una garantía de memoria perfecta.

Qué significa para el usuario gratuito y qué no cambia

Anthropic está ampliando el conjunto de herramientas, pero mantiene una frontera: estas funciones en el plan gratuito se apoyan en los modelos disponibles en ese nivel, con sus límites de uso y rendimiento. Medios como MacRumors han señalado que la llegada de compaction facilita chats más largos, pero no implica necesariamente que aumenten los topes del plan gratuito. Es decir, el “qué puedo hacer” se ensancha; el “cuánto puedo usarlo” puede seguir siendo un factor.

Desde el punto de vista de producto, es una apuesta por hacer que el primer contacto con Claude sea más convincente. Si el usuario prueba la creación de un PDF bien armado o conecta un espacio de trabajo y nota el salto de utilidad, la probabilidad de que se quede —o de que pague por más capacidad— sube.

En paralelo, el contraste con la ruta de OpenAI y sus pruebas de anuncios en ChatGPT añade una capa estratégica: mientras unos buscan financiar acceso con publicidad, otros refuerzan el valor del nivel gratuito con funciones que se sienten “de trabajo serio”. El resultado para el usuario es una competencia que se traduce en más herramientas disponibles y en un debate inevitable sobre privacidad, permisos y modelos de negocio.