Adobe está empezando a desplegar un asistente de IA para Photoshop en fase beta tanto en la versión web como en sus aplicaciones móviles, según ha informado TechCrunch a partir del anuncio de la compañía. La idea es sencilla de entender: en lugar de recorrer paneles, capas y ajustes como si estuvieras buscando una herramienta concreta en una caja de bricolaje, puedes describir lo que quieres con lenguaje natural y dejar que el sistema traduzca esa intención en acciones de edición.
En la práctica, este asistente funciona como un copiloto que conoce el “idioma” interno de Photoshop. Si le pides que elimine un objeto o una persona de la escena, que cambie un color, que ajuste la luz o que suavice el ambiente, el objetivo es que ejecute esos pasos por ti. Para quien edita de forma ocasional, es como tener a alguien al lado señalando los botones correctos. Para quien edita a diario, puede ser un atajo cuando el tiempo apremia y el resultado buscado está claro.
De lo anunciado en MAX a la beta en web y móvil
Adobe ya había adelantado este asistente durante su evento MAX en octubre, y ahora lo está poniendo en manos de usuarios para probarlo en condiciones reales. El movimiento tiene lógica: los asistentes se vuelven útiles cuando se enfrentan a peticiones variadas, con frases imperfectas, cambios de opinión y ese caos típico de “quiero que se vea mejor, pero sin que parezca artificial”.
El enfoque por prompts también encaja con la forma en que muchas personas se han acostumbrado a interactuar con la tecnología. Es parecido a pedirle a alguien: “haz que esta foto parezca tomada al atardecer, pero que la piel no se vea naranja”. Ese tipo de matices suele requerir experiencia y paciencia; aquí se busca que sea una conversación con el editor, no una búsqueda del ajuste exacto.
Qué puede hacer el asistente dentro de Photoshop
Según los detalles compartidos por la compañía y recogidos por TechCrunch, el asistente permite pedir tareas típicas de edición de imágenes: retirar elementos no deseados, recolorear partes de la escena o equilibrar iluminación y sombras. También se menciona la posibilidad de solicitar acciones más “estéticas”, como añadir un brillo suave, reforzar sombras o transformar el fondo para lograr un aspecto distinto.
Conviene imaginarlo como cuando ordenas una habitación. Antes, tenías que saber dónde estaba cada cosa y qué cajón abrir. Con el asistente, dices “quita la silla del medio, deja la luz más cálida y haz que el fondo se vea más limpio”, y el sistema intenta ejecutar esa intención con herramientas generativas y ajustes. El reto, como siempre en edición, será la consistencia: que el resultado no parezca pegado, que respete perspectiva, bordes y textura, y que no estropee detalles importantes como el pelo o los objetos semitransparentes.
Límites temporales y “generaciones” según el tipo de usuario
Adobe ha introducido un esquema de uso basado en “generaciones”, una forma habitual de medir cuántas veces se invoca la parte generativa del sistema. En esta beta, los usuarios de pago de Photoshop podrán realizar generaciones ilimitadas con el asistente hasta el 9 de abril, mientras que los usuarios gratuitos comenzarán con 20 generaciones, siempre según la información citada por TechCrunch.
Este tipo de límites suele responder a dos realidades: el coste computacional de generar y modificar imágenes, y la necesidad de evitar abusos mientras se calibra la tecnología. Para el usuario, lo relevante es entender que no todas las acciones “gastarán” lo mismo en la práctica, y que habrá que gestionar pruebas y versiones. Es como tener una impresora con un número limitado de páginas: al principio imprimes borradores sin pensar; cuando el contador aprieta, revisas más antes de pulsar el botón.
AI Markup: dibujar para indicar qué debe cambiar
Junto al asistente, Adobe está poniendo en beta pública una función llamada AI Markup. La propuesta es especialmente intuitiva: en lugar de describir con precisión milimétrica dónde está aquello que quieres modificar, puedes marcarlo directamente sobre la imagen. Dibujas una señal, rodeas un objeto o haces un trazo para indicar “esto sobra” o “aquí quiero un cambio”, y el sistema usa esa pista visual como guía.
El ejemplo que se ha compartido es muy cotidiano: dibujar una flor o señalar un elemento a eliminar para que el fondo se reajuste en consecuencia. Es una manera de reducir fricción, porque no todo el mundo tiene paciencia para explicar con palabras “la farola del lado derecho, un poco por encima del hombro”. Con el marcado, la intención se vuelve tan clara como subrayar una frase en un documento.
Firefly recibe más herramientas de edición, no solo generación
El anuncio no se queda en Photoshop. Adobe Firefly, el entorno de la compañía para creación y edición de medios con IA, suma nuevas funciones de edición que se apoyan en el mismo tipo de capacidades generativas. Una de las incorporaciones más relevantes es Generative Fill, función que ya existía en Photoshop desde hace tiempo y que ahora se integra en Firefly para reemplazar o añadir objetos y adaptar el fondo de forma coherente, de acuerdo con lo explicado por Adobe y recogido por TechCrunch.
Para entender la utilidad, piensa en una foto de producto donde quieres cambiar un elemento del decorado sin rehacer toda la sesión. Con relleno generativo, pides “quita la taza” o “añade un libro” y el sistema intenta reconstruir lo que debería haber detrás y armonizarlo con el resto de la escena. En el mejor de los casos, es como tener un equipo de retoque rápido para variaciones creativas.
El paquete de “quitar, expandir y mejorar” en un flujo más directo
Firefly también incorpora funciones orientadas al retoque práctico: generative remove para eliminar objetos, generative expand para ampliar el tamaño de una imagen “inventando” el contenido que falta alrededor, y una opción de generative upscale para aumentar resolución. A esto se suma una herramienta de un clic para eliminar el fondo, pensada para tareas típicas de recorte y composición.
Estas herramientas cubren situaciones muy comunes. Expandir una imagen es útil cuando tienes una foto perfecta para una portada, pero el encuadre queda corto para un formato panorámico. El escalado ayuda cuando una imagen se queda pequeña para impresión o para una pantalla grande. La eliminación de fondo es el equivalente digital a recortar con tijeras, pero sin pasar media hora afinando bordes.
Una estrategia de suscripción y un “mercado” de modelos
La compañía ya había señalado en febrero que permitiría generaciones ilimitadas para suscriptores de Firefly, una medida orientada a impulsar el uso del servicio. La lectura es clara: si el usuario siente que cada prueba tiene un “coste” o un contador, experimenta menos; si la experiencia es fluida, explora más opciones y se integra la herramienta en el día a día creativo.
También es relevante que Adobe esté incorporando múltiples modelos de terceros en su ecosistema. Según TechCrunch, la empresa ha sumado más de 25 modelos externos de generación de vídeo e imagen, con nombres como Google Nano Banana 2, OpenAI Image Generation, Runway Gen-4.5 y Black Forest Labs Flux.2 Pro. Para el usuario, esto se parece a tener varias “lentes” creativas disponibles: distintas tecnologías tienden a rendir mejor en estilos, texturas o escenarios concretos. La clave estará en cómo se elige el modelo adecuado, qué control se ofrece y qué garantías hay sobre consistencia y uso responsable.
Qué cambia para quienes editan a diario
Lo interesante de este movimiento es que no se limita a “hacer imágenes” desde cero. Se centra en reducir fricción en tareas reales de edición. Si funciona bien, el asistente de IA puede convertirse en una capa de interacción que acelera el trabajo, sobre todo en cambios repetitivos o en ajustes que ya sabes que quieres pero no te apetece ejecutar paso a paso.
Aun así, conviene mantener una expectativa razonable. La edición generativa puede fallar en detalles finos, confundir patrones o inventar información que no encaja. El usuario sigue necesitando criterio: comprobar bordes, coherencia de sombras, reflejos y perspectiva. La IA puede ser el ayudante que trae las herramientas y hace el primer pase; el acabado final suele depender del ojo humano, como cuando pintas una pared y luego revisas las esquinas con calma.
