La administración Trump sigue avanzando en su estrategia para imponer un marco regulatorio federal único de IA que anule las leyes estatales que considere «excesivamente gravosas». El White House publicó en marzo de 2026 su «National Policy Framework for Artificial Intelligence», un documento legislativo que recomienda al Congreso «anular las leyes estatales de IA que impongan cargas indebidas» a favor de un estándar nacional «mínimamente gravoso». Paralelamente, el Departamento de Justicia creó en enero un AI Litigation Task Force cuya única responsabilidad es impugnar leyes estatales de IA en tribunales federales. TNW y múltiples análisis legales (Paul Hastings, Gibson Dunn, Ropes & Gray, Latham & Watkins) cubren la evolución.
La orden ejecutiva 14365 y su alcance
La orden ejecutiva original (EO 14365, «Ensuring a National Policy Framework for Artificial Intelligence») se firmó en diciembre de 2025 y estableció el marco: evaluación de leyes estatales por el Departamento de Comercio, creación del Task Force de litigación, condicionamiento de fondos federales de banda ancha (42.000 millones de dólares del programa BEAD) a que los estados deroguen regulaciones de IA consideradas onerosas, y directivas a la FCC y FTC para procedimientos de preempción federal. El documento de marzo de 2026 concreta las recomendaciones legislativas: los estados no podrían regular el desarrollo de IA, penalizar a desarrolladores por conducta ilícita de terceros que usen sus modelos, ni gravar el uso de IA para actividades que serían legales si se realizaran sin IA.
Las excepciones que se mantienen a nivel estatal
Las excepciones son limitadas pero significativas: se preservan las leyes estatales sobre seguridad infantil, infraestructura de centros de datos (excepto reformas de permisos), compras gubernamentales y uso de IA por el propio estado, y «otros temas» por determinar. El framework también incluye posiciones polémicas: la administración sostiene que entrenar modelos de IA con material protegido por copyright no viola la ley de propiedad intelectual (aunque defiere a los tribunales para resolver la cuestión), y clasifica como «práctica comercial engañosa» las leyes estatales que obliguen a los modelos de IA a alterar «outputs veraces» para mitigar sesgos.
Por qué el Congreso bloquea: el detalle político
El contexto político complica la implementación. El Congreso ha rechazado repetidamente la preempción federal comprensiva de leyes estatales de IA, incluyendo intentos de incluirla en el One Big Beautiful Bill Act y el National Defense Authorization Act. Los senadores republicanos presentaron el «Trump America AI Act» como borrador de discusión, mientras que los demócratas introdujeron el GUARDRAILS Act para proteger la capacidad de los estados de implementar regulaciones de IA. Mientras tanto, estados como Colorado, California, Texas y Utah siguen aprobando y aplicando leyes de IA sobre responsabilidad algorítmica, privacidad y requisitos sectoriales. El Colorado AI Act entra en vigor en junio de 2026.
El impacto real: qué empresas se benefician y cuáles se resisten
OpenAI, Anthropic y Google llevan dos años pidiendo un marco federal único. Las cuotas de cumplimiento estatal les cuestan según mis estimaciones cruzadas con declaraciones públicas entre 80 y 240 millones anuales en cada hyperescalar. Por contraste, organizaciones de derechos civiles (ACLU, EFF) y procuradores estatales demócratas (California, Nueva York, Massachusetts) defienden la heterogeneidad porque, en algunos casos, sus leyes son más estrictas que cualquier marco federal previsible bajo Trump.
Tras seguir el debate desde 2024, mi lectura es clara: el resultado dependerá menos de la orden ejecutiva y más de los procesos judiciales que ya están en marcha. California presentó en febrero de 2026 una demanda preliminar para bloquear la sección 4 de la EO 14365 (la que afecta a leyes laborales sobre IA). Si gana, la orden quedará reducida a recomendaciones para agencias federales, no a un veto efectivo de leyes estatales. Si pierde, el equilibrio federal-estatal cambia para una década.
Mi valoración
la estrategia de Trump es clara y tiene lógica empresarial: 50 marcos regulatorios diferentes es una pesadilla de cumplimiento para empresas de IA que operan a nivel nacional. Un estándar federal único simplificaría enormemente la vida de OpenAI, Google, Anthropic, Meta y todas las demás. El problema es el contenido de ese estándar: «mínimamente gravoso» puede significar protección real con menos burocracia, o puede significar carta blanca para la industria con mínima supervisión.
El detalle de que las leyes que obliguen a los modelos a «corregir sesgos» serían consideradas «prácticas engañosas» es particularmente polémico: convierte la mitigación de sesgos algorítmicos (una preocupación legítima de derechos civiles) en un acto ilegal según la interpretación de la FTC. Que el Congreso acepte esta lectura es otra cuestión: las probabilidades de legislación comprensiva antes de las elecciones de medio término son bajas, pero la amenaza de litigación federal y el condicionamiento de fondos ya están creando un efecto disuasorio sobre los legisladores estatales. El representante demócrata Don Beyer lo expresó sin rodeos: «La Casa Blanca de Trump pretende matar las leyes estatales de IA sin establecer siquiera barreras federales mínimamente aceptables, exponiendo al público a los riesgos crecientes de una inteligencia artificial completamente descontrolada».
Para Europa, el contraste es revelador. Mientras EE.UU. avanza hacia la desregulación, el EU AI Act mantiene su calendario (agosto 2026 para obligaciones de alto riesgo), aunque la Comisión Europea propuso en noviembre retrasar las obligaciones de alto riesgo de 2026 a 2027. El resultado neto es un mundo donde la IA más capaz se desarrolla bajo regulación mínima en EE.UU. y regulación estricta en Europa, con consecuencias impredecibles para la competitividad y la protección del consumidor en ambos lados del Atlántico. España, como miembro de la UE, seguirá el marco del AI Act independientemente de lo que decida Washington, pero las empresas españolas que usen servicios de IA estadounidenses se verán afectadas indirectamente por el estándar que prevalezca.
Preguntas frecuentes
¿Qué cambia exactamente con la orden ejecutiva 14365?
Sustituye un mosaico de leyes estatales sobre IA por un único marco federal. Si se implementa por completo, las regulaciones de California, Colorado, Nueva York y otros estados quedan en suspenso para temas cubiertos a nivel federal.
¿Afecta a la UE o a empresas europeas?
Indirectamente. Empresas europeas que operan en EE.UU. tendrían que cumplir un único estándar federal en lugar de 50, lo que abarata costes regulatorios. Pero la UE mantiene su Reglamento de IA con reglas más estrictas, así que la doble cumplimentación se mantiene.
¿Cuándo entraría en vigor?
La fecha objetivo es 1 de enero de 2027, pero depende del Congreso para algunas partes del marco. Sin ley aprobada, la orden ejecutiva tiene efecto solo en agencias federales, no sustituye automáticamente a las leyes estatales en todos los ámbitos.
