Nueva York acaba de dar un paso que llevaba meses cocinándose a fuego lento: la gobernadora Kathy Hochul ha firmado la RAISE Act, una norma centrada en seguridad y transparencia en IA que convierte al estado en uno de los primeros grandes territorios de EE. UU. en exigir cuentas claras a los desarrolladores más potentes. La noticia, adelantada por TechCrunch, llega tras un tira y afloja político en el que el sector tecnológico intentó suavizar el alcance de la medida y en el que, según The New York Times, se negociaron cambios… pero para el año que viene, no para frenar la firma ahora.
La idea de fondo es sencilla de entender con un ejemplo cotidiano: si un edificio es tan grande que un incendio puede afectar a todo el barrio, no basta con confiar en que su sistema antiincendios “seguro que funciona”. Se piden inspecciones, protocolos y la obligación de avisar rápido si ocurre un incidente. Con la RAISE Act, Nueva York trata a los sistemas de IA de gran escala como esa infraestructura crítica: útil, sí, pero con riesgos que conviene vigilar con reglas verificables.
Qué exige la RAISE Act a los grandes desarrolladores
El corazón de la RAISE Act está en dos obligaciones: publicar información sobre protocolos de seguridad y notificar incidentes de seguridad en un plazo muy concreto. La norma obliga a los grandes desarrolladores de IA a divulgar cómo gestionan la seguridad de sus modelos y qué medidas aplican para reducir riesgos. No se trata solo de “decir que se portan bien”, sino de ofrecer detalles sobre su enfoque de protección, un movimiento alineado con lo que muchas voces vienen pidiendo: más luz y menos promesas vagas.
La segunda obligación es la que suele cambiar comportamientos: si ocurre un incidente relevante, la empresa debe informar al estado en un máximo de 72 horas. En la práctica, ese margen funciona como una alarma obligatoria. Es el equivalente a tener que llamar al seguro en cuanto se rompe una tubería importante, en lugar de esperar semanas para ver si “se seca solo”. En seguridad, el tiempo importa, y este tipo de reloj en cuenta atrás suele empujar a reforzar procedimientos internos y a documentar mejor qué pasó y cuándo.
Un nuevo vigilante dentro del Departamento de Servicios Financieros
La ley no se queda en pedir papeles. También crea una nueva oficina dentro del Departamento de Servicios Financieros de Nueva York para monitorizar el desarrollo de IA. Esto es significativo por dos motivos. Primero, porque institucionaliza la supervisión: ya no depende de iniciativas puntuales o de comisiones temporales. Segundo, porque ubicarlo en un organismo con tradición reguladora sugiere una aproximación más parecida a la supervisión de sectores de alto impacto que a la típica guía de buenas prácticas.
Para entenderlo sin jerga: es la diferencia entre un cartel que dice “conduce con cuidado” y un sistema con radares, normas claras y un canal para reportar accidentes. La oficina nueva no garantiza por sí sola que todo vaya a ser perfecto, pero sí crea un punto de referencia para recopilar incidentes, comparar prácticas y presionar para que el estándar suba.
Multas, declaraciones falsas y el coste de mirar hacia otro lado
Una de las piezas que convierte la RAISE Act en algo más que una declaración de intenciones es el régimen de sanciones. Si una empresa no entrega los informes de seguridad exigidos o hace declaraciones falsas, se expone a multas de hasta 1 millón de dólares, cifra que puede subir a 3 millones en infracciones posteriores.
Es una señal clara: para Nueva York, ocultar información o jugar a la confusión sale caro. En un mercado donde la reputación es un activo, el impacto no es solo económico. Un proceso sancionador ligado a incidentes de IA puede convertirse en un riesgo de marca, de confianza y de relación con clientes. Dicho de forma práctica, es como si el examen técnico del coche no fuera opcional y, si presentas documentos trucados, la penalización se multiplica.
El efecto California: dos grandes estados marcando el paso
En su anuncio, Hochul vinculó la RAISE Act con el marco aprobado en California, firmado por el gobernador Gavin Newsom en septiembre. La lectura política es evidente: si dos estados con enorme peso tecnológico y económico se ponen de acuerdo en exigir transparencia en IA, se crea un “suelo” regulatorio que otras regiones pueden imitar, y se presiona a Washington para definir una norma federal coherente.
Hochul enmarcó el movimiento como una forma de construir un estándar común mientras el gobierno federal no concreta reglas “de sentido común”. Esa frase tiene intención: cuando varias jurisdicciones grandes empujan en la misma dirección, las empresas suelen preferir un marco nacional único para evitar un mosaico de obligaciones distintas. En ese punto, la dinámica se vuelve paradójica: una regulación estatal fuerte puede ser el empujón que acelere una ley federal, porque a las compañías les resulta más sencillo cumplir una sola norma que cincuenta variaciones.
Apoyos y críticas: OpenAI y Anthropic, y la resistencia de parte del sector
No toda la industria ha reaccionado igual. Según lo recogido por TechCrunch y declaraciones al New York Times, tanto OpenAI como Anthropic mostraron apoyo a la ley, acompañándolo de una llamada a una legislación federal. Desde Anthropic, su responsable de asuntos externos, Sarah Heck, señaló que el hecho de que dos de los estados más grandes aprueben leyes de transparencia “señala la importancia crítica” de la seguridad y debería inspirar al Congreso. El matiz aquí es clave: apoyar transparencia estatal puede ser compatible con querer una regla nacional que unifique criterios.
En el otro lado del tablero, también hay oposición activa. Se menciona el papel de un super PAC respaldado por Andreessen Horowitz y por Greg Brockman (presidente de OpenAI) para desafiar a Alex Bores, asambleísta que copatrocinó el proyecto junto con el senador estatal Andrew Gounardes. El propio Bores respondió con ironía, agradeciendo la franqueza. La escena ilustra algo habitual en tecnología: las empresas pueden apoyar “la idea” de la seguridad y, a la vez, presionar fuerte sobre el cómo, el quién y el cuándo.
Gounardes fue más contundente en redes, describiendo la ley como una de las más fuertes del país y celebrando que el sector no lograra “tumbarla”. Son mensajes que sirven para movilizar a su base, pero también para poner el foco en un choque de intereses: innovación rápida frente a exigencias de rendición de cuentas.
El choque con la Casa Blanca: la orden ejecutiva y el pulso legal
La firma de la RAISE Act no ocurre en el vacío. El contexto federal se ha vuelto más tenso tras una orden ejecutiva firmada por el presidente Donald Trump que instruye a las agencias federales a desafiar leyes estatales sobre IA. Según la información citada por TechCrunch, la medida cuenta con el respaldo de David Sacks, descrito como el “zar” de IA de la administración, y se interpreta como un intento de limitar la capacidad de los estados para regular.
Aquí entra un terreno con recorrido judicial. En EE. UU., la frontera entre competencias federales y estatales suele resolverse en tribunales cuando hay conflicto. Si Washington busca bloquear marcos como el de Nueva York o California, es probable que veamos demandas y contra-demandas. Para el ciudadano, este pulso puede sonar abstracto; para las empresas, es incertidumbre operativa: hoy cumples un esquema, mañana una sentencia puede cambiarlo o pausarlo.
Qué cambia a partir de ahora para empresas y usuarios
Para las compañías que desarrollan modelos de gran escala, la RAISE Act incentiva disciplina interna: documentación más sólida, procesos de evaluación de riesgos, canales de escalado y comunicación rápida de incidentes. Incluso si ya tenían parte de eso, una obligación legal tiende a volverlo más sistemático. También empuja a pensar la seguridad como parte del producto, no como un parche posterior. Es la lógica del cinturón de seguridad: no se negocia en el momento del accidente, se diseña desde el principio.
Para el público, el beneficio prometido es indirecto pero importante: más información sobre cómo se gestionan los riesgos y una mayor probabilidad de que incidentes graves salgan a la luz pronto. La limitación es evidente: la transparencia no equivale automáticamente a comprensión. Publicar protocolos puede ser útil, aunque no siempre será fácil de interpretar para cualquiera. Por eso el papel del nuevo organismo estatal, su capacidad de analizar y comparar, puede ser tan determinante como la letra de la ley.
Lo que ocurre en 2026, con los cambios que Hochul pidió y que los legisladores se comprometieron a abordar el próximo año, será el siguiente capítulo. Por ahora, Nueva York ha colocado una pieza grande en el tablero: si construyes IA con impacto masivo, tendrás que explicar cómo la haces más segura y tendrás que avisar rápido cuando algo falle.
