La Casa Blanca mueve ficha: la Orden Ejecutiva 14365 y el pulso entre Washington y los estados por la regulación de la IA

La Orden Ejecutiva 14365, titulada Removing Barriers to American Leadership in Artificial Intelligence, nace con una idea sencilla de explicar y difícil de ejecutar: que el sector de la inteligencia artificial no tenga que navegar por un mosaico de normas distintas en cada estado. Si lo pensamos como un viaje por carretera, la Casa Blanca describe el panorama actual como una autopista en la que cada frontera estatal cambia los límites de velocidad, el tipo de peaje y hasta las señales. Ese “cambio constante de normas” es, según el texto de la orden, un freno para la innovación, especialmente para start-ups con menos recursos legales.

El contexto es importante: Estados Unidos no tiene todavía una ley federal integral de regulación de IA, y los estados han ocupado ese espacio con normas propias para temas como protección de menores, límites al reconocimiento facial o medidas contra la discriminación. Un dato que se repite en los análisis jurídicos es que no se trata de 50 regímenes idénticos a un “tablero completo”, sino de un número ligeramente inferior; el seguimiento de despachos como Orrick contabiliza 48 leyes estatales relacionadas con IA en el momento descrito por las fuentes citadas en el documento base. Continúa leyendo «La Casa Blanca mueve ficha: la Orden Ejecutiva 14365 y el pulso entre Washington y los estados por la regulación de la IA»

¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)

El director ejecutivo y cofundador de Anthropic, Dario Amodei, publicó un ensayo de decenas de páginas titulado The Adolescence of Technology en el que plantea una idea tan simple como incómoda: la inteligencia artificial avanza hacia capacidades que podrían desbordar la forma en que hoy organizamos la sociedad, la política y la tecnología. La imagen que sugiere es la de una adolescencia: una etapa de crecimiento acelerado, potencia desordenada y decisiones impulsivas, pero aplicada a herramientas que no se quedan en el ámbito personal, sino que se conectan con infraestructuras, estados, economía y seguridad global. La advertencia llega, curiosamente, desde alguien que lidera una empresa que compite por estar en primera fila en esa carrera, con productos como Claude.

En la cobertura de Gizmodo sobre el ensayo, se subraya el tono de alarma de Amodei: habla de un “rito de paso” para la especie, turbulento e inevitable, y deja caer una frase que condensa su temor principal: no está claro que nuestros sistemas sean lo bastante “maduros” para manejar “un poder casi inimaginable”. Lo relevante no es solo el dramatismo, sino el tipo de riesgos que enumera y la manera en que los conecta con escenarios concretos. Continúa leyendo «¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)»

Qué viene para la IA en 2026: cinco giros que ya están asomando

Predecir la IA en 2026 tiene un punto de deporte de riesgo: lo que hoy parece un “nuevo estándar” mañana se siente como una versión beta. Aun así, hay señales que se repiten y empiezan a formar patrones. En la serie “What’s Next” de MIT Technology Review, varios de sus periodistas miran hacia el año que arranca apoyándose en algo más sólido que la intuición: lo que ya se vio en 2025 y cómo evolucionó.

El ejercicio tiene gracia porque parte de un “control de calidad” real. En 2025 se hablaba de modelos que generan mundos (los llamados world models), de modelos de razonamiento como nueva referencia para resolver problemas, del empuje de la IA para ciencia, del acercamiento entre empresas de IA y seguridad nacional, y del deseo —todavía más deseo que realidad— de ver competencia seria frente a Nvidia. La idea útil aquí no es acertar cada titular, sino detectar el movimiento de fondo: cada vez más capacidad, más actores y más fricción alrededor del uso.

Con ese contexto, estos son cinco cambios que, si nada se tuerce, van a marcar conversación, producto y regulación durante 2026. Continúa leyendo «Qué viene para la IA en 2026: cinco giros que ya están asomando»

OpenAI y la amenaza biotecnológica: ¿cuán cerca estamos de una IA que facilite la creación de armas biológicas?

OpenAI ha vuelto a estar en el centro del debate público, esta vez por advertencias propias que apuntan a un escenario delicado: la posibilidad de que sus futuros modelos de inteligencia artificial avanzada puedan ser capaces de asistir en la creación de armas biológicas. La empresa, conocida por su compromiso con el desarrollo responsable de la IA, está reconociendo que su próxima generación de modelos podría cruzar límites potencialmente peligrosos. Continúa leyendo «OpenAI y la amenaza biotecnológica: ¿cuán cerca estamos de una IA que facilite la creación de armas biológicas?»

Hollywood pide protección contra la IA: el debate sobre derechos de autor y creatividad

La industria del entretenimiento en Estados Unidos se enfrenta a un nuevo desafío: la inteligencia artificial (IA). Más de 400 actores, directores y artistas, incluyendo figuras de renombre como Cate Blanchett y Ben Stiller, han firmado una carta dirigida a la Casa Blanca de Donald Trump solicitando protecciones para los derechos de autor en cine, televisión y música. La preocupación principal radica en que grandes empresas tecnológicas como Google y OpenAI están utilizando contenidos protegidos por derechos de autor para entrenar sus modelos de IA, lo que podría afectar la viabilidad de la industria creativa.

Continúa leyendo «Hollywood pide protección contra la IA: el debate sobre derechos de autor y creatividad»

La IA ya puede replicarse a sí misma: ¿un avance o una amenaza?

Un reciente estudio realizado en China ha encendido las alarmas en la comunidad científica al demostrar que los modelos de inteligencia artificial (IA) pueden replicarse a sí mismos. Este descubrimiento ha sido calificado como un cruce de una «línea roja» en el desarrollo de la IA, despertando preocupaciones sobre los riesgos y el futuro de estas tecnologías.

Continúa leyendo «La IA ya puede replicarse a sí misma: ¿un avance o una amenaza?»

Scarlett Johansson y la urgente necesidad de regulaciones para la IA

El debate sobre la inteligencia artificial y los derechos de imagen ha alcanzado un nuevo nivel con la reciente controversia en torno a Scarlett Johansson. La reconocida actriz ha denunciado públicamente el uso no autorizado de su imagen en un video generado por IA que se ha vuelto viral en redes sociales. Este caso subraya el creciente problema del uso indebido de la IA en la creación de contenido falso, un fenómeno que amenaza no solo la privacidad de los individuos, sino también la integridad de la información en el entorno digital.

Continúa leyendo «Scarlett Johansson y la urgente necesidad de regulaciones para la IA»

Histórico fallo judicial sobre copyright en IA: Implicaciones para la industria

Un tribunal federal en Delaware ha emitido un fallo histórico en el primer gran caso de copyright relacionado con la inteligencia artificial en Estados Unidos. La decisión, dictada por el juez Stephanos Bibas, favoreció a Thomson Reuters en su demanda contra la startup de IA Ross Intelligence, estableciendo un precedente clave para la industria.

Continúa leyendo «Histórico fallo judicial sobre copyright en IA: Implicaciones para la industria»

Google levanta la prohibición sobre el uso de IA en armas: Preocupaciones y repercusiones

Google, una de las empresas tecnológicas más influyentes del mundo, ha generado controversia al levantar su prohibición sobre el uso de inteligencia artificial (IA) en el desarrollo de armas y herramientas de vigilancia. Esta decisión ha sido criticada por organismos de derechos humanos, que advierten sobre los riesgos de permitir que la IA influya en conflictos militares y en la seguridad global.

Continúa leyendo «Google levanta la prohibición sobre el uso de IA en armas: Preocupaciones y repercusiones»

Europa debe asumir mayores riesgos en inteligencia artificial, según Yann LeCun

La inteligencia artificial (IA) está en el centro de las discusiones tecnológicas y económicas globales, y Europa, a pesar de contar con talento de primer nivel, parece rezagada frente a otros continentes en términos de inversión y actitud hacia el riesgo. Yann LeCun, reconocido como uno de los «padrinos» de la IA y jefe científico de IA en Meta, ha lanzado una llamada de atención desde el Foro Económico Mundial, instando a Europa a apostar más fuerte en este campo.

Continúa leyendo «Europa debe asumir mayores riesgos en inteligencia artificial, según Yann LeCun»