Editar una foto suele empezar con una pequeña búsqueda del tesoro: ¿dónde estaba ese ajuste?, ¿qué capa tocaba?, ¿por qué el recorte no encaja con el formato que necesito? Adobe quiere recortar fricción con una idea sencilla: que la edición se parezca más a pedirle algo a un compañero que a memorizar atajos. En Adobe MAX ya había adelantado su intención de llevar la IA conversacional a sus herramientas creativas, y el 10 de marzo de 2026 lo aterriza con dos piezas clave: el Asistente de IA de Photoshop en beta pública para web y móvil, y nuevas capacidades en el editor de imágenes de Adobe Firefly.
La estrategia no se limita a Photoshop. Adobe enmarca estos cambios dentro de un “ecosistema de asistentes” que ya toca Acrobat y Adobe Express, y que busca convivir con chats de terceros como ChatGPT y entornos de trabajo como Microsoft 365.
Qué trae el Asistente de IA de Photoshop en beta pública
La promesa es directa: describir el cambio y dejar que el sistema lo aplique o, si prefieres aprender, que te guíe paso a paso. En la práctica, el asistente apunta a las tareas que más tiempo consumen cuando una foto “casi está”: quitar distracciones, cambiar un fondo, retocar luz y color, o pulir detalles sin entrar en un laberinto de paneles. Adobe lo ha lanzado como beta pública en Photoshop web y Photoshop móvil, orientado tanto a quien edita de forma ocasional como a perfiles avanzados que quieren acelerar los primeros borradores.
La parte interesante es el enfoque pedagógico. Elegir entre “hazlo por mí” y “enséñame cómo” convierte al asistente en una mezcla de herramienta y tutor. Es parecido a cocinar con alguien al lado: puedes pedirle que corte las verduras o que te explique la técnica para que la próxima vez lo hagas sin mirar.
AI Markup: precisión espacial para que el prompt no se pierda
Uno de los puntos más prácticos llega en la web con AI Markup (beta pública), integrado en la Barra de tareas contextual de Photoshop. La idea es tan simple como efectiva: dibujas sobre la imagen para señalar dónde quieres el cambio y, a continuación, escribes la indicación. No es lo mismo pedir “pon flores” que decir “pon flores aquí”, señalándolo con el lápiz. Para quien ha sufrido prompts que “entienden” la intención pero la colocan en el lugar equivocado, este gesto funciona como poner cinta de carrocero antes de pintar una pared: delimita el área y evita repintes innecesarios.
Adobe describe casos como marcar una zona y pedir que aparezcan montañas o elementos decorativos, con resultados generados en segundos. La combinación de trazo y texto busca un equilibrio entre libertad creativa y control, sin exigir máscaras perfectas desde el primer intento.
Voz y edición móvil: retoque “de bolsillo” con menos fricción
En móvil, el asistente suma una capa de accesibilidad: comandos por voz para pedir cambios mientras editas en movimiento. Esto encaja con un uso cada vez más común: hacer una versión rápida para redes, un recorte para una miniatura o un ajuste de iluminación antes de publicar. Adobe plantea que, con una frase, puedas limpiar una foto de vacaciones quitando personas del fondo, ajustar el tono para que el cielo no quede “lavado”, o dar un aire de portada musical a una imagen recortándola y empujando el color hacia un ambiente concreto.
Conviene recordar que se trata de una beta: en este tipo de funciones, la consistencia entre resultados y la gestión de errores suele pulirse con el uso masivo. Aun así, la dirección es clara: menos “clics de precisión” cuando lo que buscas es un buen resultado final, no el placer de mover cada deslizador.
Adobe Firefly se convierte en un banco de herramientas de edición con IA
Si Photoshop incorpora el componente conversacional, Adobe Firefly refuerza el músculo de edición generativa en un espacio de trabajo unificado. Su editor de imágenes agrupa funciones conocidas por muchos usuarios de Photoshop, pero las pone juntas y orientadas a un flujo rápido tanto para imágenes generadas por IA como para fotos cargadas. Adobe incluye Relleno generativo, Eliminación generativa, Ampliación generativa, Aumento de escala generativa y Eliminación del fondo como un paquete pensado para componer, limpiar y adaptar formatos sin salir de la misma vista.
La metáfora aquí sería la de una navaja suiza: no reemplaza a todo un taller, pero te permite resolver el 80% de los arreglos cotidianos sin cambiar de mesa. Para marketing y contenido social, ese 80% suele ser justo lo que se necesita a diario.
Elegir “motor” de IA: más de 25 modelos y una idea de interoperabilidad
Una de las novedades más llamativas de Firefly es el “selector” de modelos. Adobe afirma que se puede crear eligiendo entre más de 25 modelos, incluyendo los suyos (con el argumento de uso comercial seguro) y opciones de terceros como Google (Nano Banana 2), OpenAI (Image Generation), Runway (Gen-4.5) y Black Forest Labs (Flux.2 [pro]). La propuesta es que el creador elija la estética o el comportamiento que más le encaja y luego pase a la fase de edición sin romper el flujo.
Este enfoque reconoce algo que ya se ve en el mercado: no existe un único modelo “mejor” para todo. Algunos destacan en realismo, otros en estilos ilustrados, otros en consistencia. Dar acceso dentro del mismo entorno es como tener varios tipos de papel en una papelería: el rotulador es el mismo, pero el resultado cambia según la superficie.
Generaciones ilimitadas: acceso, límites y el tema de los créditos
Adobe acompaña el lanzamiento con un incentivo claro: generaciones ilimitadas en Firefly y al usar el Asistente de IA de Photoshop en web y móvil. En el caso de Photoshop, los suscriptores de pago tienen ese uso ilimitado hasta el 9 de abril; en la versión gratuita, el arranque es de 20 generaciones sin coste. Firefly, por su parte, abre hoy estas capacidades de edición de forma global y ya ofrece generaciones ilimitadas para clientes de Firefly.
Aquí aparece el debate habitual: cuando la IA se mide por “generaciones”, el modelo económico puede empujar a un uso más calculado. Algunos medios han señalado preocupaciones sobre esquemas basados en créditos y su efecto en creadores que iteran mucho, justo lo que la creatividad suele pedir.
Qué cambia en el trabajo real: estudiantes, equipos y profesionales
Para quien está aprendiendo, el mayor valor puede ser la guía paso a paso: entender qué harías manualmente y luego repetirlo sin el asistente. Para quien produce volumen, lo relevante es bajar el tiempo de preparación: limpiar fondos, cuadrar formatos, subir resolución y dejar una pieza lista para revisión. En estudios y departamentos de marketing, la conexión con chats y suites de productividad es una pista de por dónde va el uso: pedir variaciones, documentar cambios y reutilizar recursos sin saltar entre aplicaciones.
Photoshop y Firefly siguen siendo herramientas distintas, con públicos que se solapan, pero el hilo conductor es el mismo: transformar la edición en una conversación guiada, con controles visuales cuando hace falta precisión. Si la beta cumple con estabilidad y resultados coherentes, muchos flujos de trabajo van a parecerse menos a “pelearse con un panel” y más a dirigir a un ayudante atento que entiende contexto, aprende de tu intención y trabaja a tu ritmo.
