La administración Trump sigue avanzando en su estrategia para imponer un marco regulatorio federal único de IA que anule las leyes estatales que considere «excesivamente gravosas». El White House publicó en marzo de 2026 su «National Policy Framework for Artificial Intelligence», un documento legislativo que recomienda al Congreso «anular las leyes estatales de IA que impongan cargas indebidas» a favor de un estándar nacional «mínimamente gravoso». Paralelamente, el Departamento de Justicia creó en enero un AI Litigation Task Force cuya única responsabilidad es impugnar leyes estatales de IA en tribunales federales. TNW y múltiples análisis legales (Paul Hastings, Gibson Dunn, Ropes & Gray, Latham & Watkins) cubren la evolución.
La orden ejecutiva original (EO 14365, «Ensuring a National Policy Framework for Artificial Intelligence») se firmó en diciembre de 2025 y estableció el marco: evaluación de leyes estatales por el Departamento de Comercio, creación del Task Force de litigación, condicionamiento de fondos federales de banda ancha (42.000 millones de dólares del programa BEAD) a que los estados deroguen regulaciones de IA consideradas onerosas, y directivas a la FCC y FTC para procedimientos de preempción federal. El documento de marzo de 2026 concreta las recomendaciones legislativas: los estados no podrían regular el desarrollo de IA, penalizar a desarrolladores por conducta ilícita de terceros que usen sus modelos, ni gravar el uso de IA para actividades que serían legales si se realizaran sin IA.
Las excepciones son limitadas pero significativas: se preservan las leyes estatales sobre seguridad infantil, infraestructura de centros de datos (excepto reformas de permisos), compras gubernamentales y uso de IA por el propio estado, y «otros temas» por determinar. El framework también incluye posiciones polémicas: la administración sostiene que entrenar modelos de IA con material protegido por copyright no viola la ley de propiedad intelectual (aunque defiere a los tribunales para resolver la cuestión), y clasifica como «práctica comercial engañosa» las leyes estatales que obliguen a los modelos de IA a alterar «outputs veraces» para mitigar sesgos.
El contexto político complica la implementación. El Congreso ha rechazado repetidamente la preempción federal comprensiva de leyes estatales de IA, incluyendo intentos de incluirla en el One Big Beautiful Bill Act y el National Defense Authorization Act. Los senadores republicanos presentaron el «Trump America AI Act» como borrador de discusión, mientras que los demócratas introdujeron el GUARDRAILS Act para proteger la capacidad de los estados de implementar regulaciones de IA. Mientras tanto, estados como Colorado, California, Texas y Utah siguen aprobando y aplicando leyes de IA sobre responsabilidad algorítmica, privacidad y requisitos sectoriales. El Colorado AI Act entra en vigor en junio de 2026.
Mi valoración: la estrategia de Trump es clara y tiene lógica empresarial: 50 marcos regulatorios diferentes es una pesadilla de cumplimiento para empresas de IA que operan a nivel nacional. Un estándar federal único simplificaría enormemente la vida de OpenAI, Google, Anthropic, Meta y todas las demás. El problema es el contenido de ese estándar: «mínimamente gravoso» puede significar protección real con menos burocracia, o puede significar carta blanca para la industria con mínima supervisión.
El detalle de que las leyes que obliguen a los modelos a «corregir sesgos» serían consideradas «prácticas engañosas» es particularmente polémico: convierte la mitigación de sesgos algorítmicos (una preocupación legítima de derechos civiles) en un acto ilegal según la interpretación de la FTC. Que el Congreso acepte esta lectura es otra cuestión: las probabilidades de legislación comprensiva antes de las elecciones de medio término son bajas, pero la amenaza de litigación federal y el condicionamiento de fondos ya están creando un efecto disuasorio sobre los legisladores estatales. El representante demócrata Don Beyer lo expresó sin rodeos: «La Casa Blanca de Trump pretende matar las leyes estatales de IA sin establecer siquiera barreras federales mínimamente aceptables, exponiendo al público a los riesgos crecientes de una inteligencia artificial completamente descontrolada».
Para Europa, el contraste es revelador. Mientras EE.UU. avanza hacia la desregulación, el EU AI Act mantiene su calendario (agosto 2026 para obligaciones de alto riesgo), aunque la Comisión Europea propuso en noviembre retrasar las obligaciones de alto riesgo de 2026 a 2027. El resultado neto es un mundo donde la IA más capaz se desarrolla bajo regulación mínima en EE.UU. y regulación estricta en Europa, con consecuencias impredecibles para la competitividad y la protección del consumidor en ambos lados del Atlántico. España, como miembro de la UE, seguirá el marco del AI Act independientemente de lo que decida Washington, pero las empresas españolas que usen servicios de IA estadounidenses se verán afectadas indirectamente por el estándar que prevalezca.
Preguntas frecuentes
¿Las leyes estatales de IA desaparecen inmediatamente? No. La orden ejecutiva establece un proceso (evaluación, litigación, legislación), pero hasta que los tribunales o el Congreso actúen, las leyes estatales vigentes siguen aplicándose. ¿Afecta esto a Europa? No directamente. El EU AI Act tiene su propio calendario (agosto 2026 para obligaciones de alto riesgo). Pero la posición de EE.UU. contra la regulación estricta de IA crea presión indirecta sobre la UE para no sobreregular y perder competitividad frente a empresas americanas que operan bajo un marco más permisivo. ¿Qué leyes estatales están en riesgo? El Colorado AI Act (entra en vigor en junio de 2026), las enmiendas de California al CCPA sobre decisiones automatizadas, el RAISE Act de Nueva York, y cualquier ley estatal que imponga requisitos de transparencia, auditoría algorítmica o mitigación de sesgos a desarrolladores de modelos de IA. A fecha de publicación, el AI Litigation Task Force no ha iniciado litigación contra ninguna ley estatal, pero su mera existencia está creando un efecto disuasorio sobre legisladores que consideraban propuestas similares.
