Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA

Publicado el

La imagen muestra una representación abstracta de la privacidad digital y la regulación. En ella se destacan formas abstractas que simbolizan datos y tecnología, con elementos que representan control y restricciones, como candados y barreras. La paleta de colores incluye tonos de azul y gris para transmitir el tema digital y el ambiente regulatorio.

Hasta hace poco, la rivalidad entre Anthropic y OpenAI se medía en benchmarks, nuevos modelos y funciones para usuarios. Esta semana el pulso se trasladó a un terreno mucho más terrenal: el dinero electoral. La creadora de Claude anunció una aportación de 20 millones de dólares a Public First Action, una organización política que pretende impulsar candidatos favorables a imponer límites y reglas más claras al sector.

La noticia encaja con un cambio de época: la inteligencia artificial ya no es solo una cuestión de producto o de investigación, sino un asunto que toca empleo, educación, seguridad nacional, ciberseguridad y protección de menores. Cuando una tecnología empieza a rozar “casi todo” en la vida pública, el debate regulatorio se vuelve un partido con grada, árbitro y, como estamos viendo, patrocinadores.

Qué ha anunciado Anthropic y qué quiere conseguir

El movimiento es directo: 20 millones para reforzar una estructura de influencia electoral que apoye una agenda de “guardarraíles” para la IA. Reuters detalla que el dinero va a Public First Action, un grupo que se opone a esfuerzos federales para frenar o neutralizar leyes estatales sobre IA, y que ya tiene nombres en el radar, como la senadora Marsha Blackburn, que compite por la gobernación de Tennessee.

En su propio comunicado, Anthropic argumenta que no quiere quedarse al margen mientras se escriben las reglas del juego. La compañía plantea que faltan normas federales claras y que la adopción de la IA está yendo más rápido que la capacidad política para supervisarla; cita sondeos según los cuales una mayoría de estadounidenses cree que el gobierno no está haciendo lo suficiente para regular su uso.

Para entender el gesto, sirve una metáfora cotidiana: si la IA fuera un coche cada vez más potente, el debate ya no sería si acelera bien, sino quién pone los límites de velocidad, dónde se instalan los guardarraíles y qué sanciones hay cuando alguien se salta un semáforo. Anthropic está diciendo que prefiere carreteras con señalización clara, aunque eso implique inspecciones más estrictas para todos, incluida ella.

Public First Action y el “parche” regulatorio entre estados y Washington

La fractura de fondo es el clásico choque entre regulación estatal y marco federal. Según Reuters y la prensa estadounidense, el grupo respaldado por Anthropic busca defender la capacidad de los estados para legislar sobre IA, especialmente si a nivel federal no hay un estándar robusto que ofrezca garantías equivalentes o superiores.

Aquí aparece una tensión real para empresas y usuarios. Para una compañía, un mapa de normas distintas por estado se parece a intentar vender el mismo electrodoméstico con 50 manuales diferentes: caro, lento y lleno de riesgos. Para consumidores y administraciones locales, en cambio, ese “parche” puede ser la única forma de actuar cuando Washington no llega o no se pone de acuerdo. La posición de Anthropic intenta ocupar un punto intermedio: quiere un marco federal, pero no a costa de desactivar por completo la vía estatal mientras ese marco no exista o no sea exigente.

El bando contrario: Leading the Future y el músculo financiero proindustria

El anuncio de Anthropic no ocurre en el vacío. Public First Action nace explícitamente como contrapeso de Leading the Future, una red de super PACs asociada a figuras de la industria que promueven una regulación más ligera. Reuters cifra su recaudación en 125 millones de dólares desde su creación en agosto de 2025.

En el lado de OpenAI, el caso más llamativo es el de Greg Brockman, presidente y cofundador, convertido en gran donante político. WIRED informa de aportaciones millonarias a un super PAC pro-Trump y al propio Leading the Future, con promesas de seguir ampliando el compromiso financiero durante 2026.

Visto desde fuera, el patrón recuerda a dos empresas compitiendo por el mejor escaparate en la calle más transitada: una pelea por visibilidad, solo que el escaparate aquí son escaños, comités legislativos y el texto de futuras leyes. El riesgo es evidente: cuando el debate se financia a golpe de chequera, la percepción pública puede girar hacia la idea de que las reglas se escriben para quien más paga, no para quien más razón tiene.

Dinero, opacidad y la etiqueta de “dinero oscuro

El detalle técnico importa porque condiciona la transparencia. Anthropic explica que Public First Action es una 501(c)(4), una figura de “bienestar social” que puede participar en actividad política y recaudación. En Estados Unidos, este tipo de entidades se asocia a menudo al fenómeno del dinero oscuro: gasto político en el que el origen del dinero puede quedar oculto al gran público, incluso si existen obligaciones de reporte en determinados supuestos. Organizaciones de vigilancia y análisis sobre financiación electoral describen cómo estos vehículos permiten influir sin revelar claramente quién está detrás de cada dólar.

Los super PACs, por su parte, pueden aceptar contribuciones ilimitadas para gasto independiente, y están sujetos a reglas federales específicas. La Comisión Electoral Federal explica el marco básico de estas entidades y sus límites en materia de fuentes de financiación permitidas.

En términos prácticos, para la ciudadanía esto puede sentirse como ver anuncios políticos de “una plataforma por el futuro” sin saber quién ha pagado el megáfono. En tecnología lo llamaríamos falta de “trazabilidad”: sabes que el mensaje existe, pero no puedes seguir el rastro hasta su origen con facilidad.

La disputa Anthropic–OpenAI como espejo de dos filosofías de regulación

El choque también es ideológico. Anthropic se fundó con una narrativa centrada en seguridad, control de riesgos y límites claros para modelos avanzados, y ha defendido públicamente que ciertas amenazas —como usos maliciosos en biología o ciberataques— requieren políticas específicas. OpenAI, en cambio, lleva tiempo insistiendo en la necesidad de acelerar la innovación y evitar trabas que, desde su óptica, podrían frenar la competitividad de Estados Unidos y favorecer a rivales internacionales; el entorno político actual parece más receptivo a esa visión procrecimiento, según describen medios como WIRED al analizar la relación entre líderes de la industria y la administración Trump en su segundo mandato.

La gran ironía es que ambos bandos hablan del “interés público”, solo que priorizan riesgos distintos. Uno se preocupa por el “freno” porque ve una pendiente peligrosa; el otro teme que frenar demasiado haga que el coche se quede atrás en la carrera global. El problema llega cuando ese desacuerdo se traduce en campañas agresivas, etiquetas simplificadoras y leyes hechas con prisas, justo lo contrario de lo que pediría una tecnología compleja.

Qué significa para usuarios, empresas y el mercado de la IA

Que las grandes firmas de IA entren de lleno en la política tiene efectos colaterales. Para las empresas pequeñas, puede elevar la barrera de entrada si la regulación termina diseñada con el “tamaño” de los gigantes en mente. Para usuarios y consumidores, puede traer algo positivo si se aprueban obligaciones de transparencia, auditorías o responsabilidades claras cuando un sistema falla y causa daño. Para gobiernos estatales y locales, abre la puerta a recursos e influencia externa en debates que, hasta ahora, eran más técnicos que electorales.

La pregunta de fondo es quién define el estándar de “seguridad razonable” y con qué mecanismos de control. Si el resultado es un marco que exige explicar mejor cómo se entrenan modelos, cómo se evalúan riesgos y qué salvaguardas existen, el mercado ganará previsibilidad. Si el resultado es una guerra de anuncios y contraanuncios, con normas que cambian según el color político, la IA acabará pareciéndose a un electrodoméstico con instrucciones distintas cada temporada: confuso para quien lo usa, caro para quien lo fabrica y frustrante para quien intenta supervisarlo.