Nueva York aprueba la RAISE Act: qué obliga a las grandes IA y por qué abre otro frente con Washington

Nueva York acaba de dar un paso que llevaba meses cocinándose a fuego lento: la gobernadora Kathy Hochul ha firmado la RAISE Act, una norma centrada en seguridad y transparencia en IA que convierte al estado en uno de los primeros grandes territorios de EE. UU. en exigir cuentas claras a los desarrolladores más potentes. La noticia, adelantada por TechCrunch, llega tras un tira y afloja político en el que el sector tecnológico intentó suavizar el alcance de la medida y en el que, según The New York Times, se negociaron cambios… pero para el año que viene, no para frenar la firma ahora.

La idea de fondo es sencilla de entender con un ejemplo cotidiano: si un edificio es tan grande que un incendio puede afectar a todo el barrio, no basta con confiar en que su sistema antiincendios “seguro que funciona”. Se piden inspecciones, protocolos y la obligación de avisar rápido si ocurre un incidente. Con la RAISE Act, Nueva York trata a los sistemas de IA de gran escala como esa infraestructura crítica: útil, sí, pero con riesgos que conviene vigilar con reglas verificables. Continúa leyendo «Nueva York aprueba la RAISE Act: qué obliga a las grandes IA y por qué abre otro frente con Washington»

Un modelo de lenguaje abierto, multilingüe y suizo: la nueva apuesta por la IA transparente

Un nuevo modelo de lenguaje desarrollado en Suiza promete marcar un antes y un después en el acceso a la inteligencia artificial. Diseñado por investigadores de la EPFL y ETH Zurich y entrenado en uno de los superordenadores más potentes del mundo, este modelo se diferencia por su compromiso con la apertura total, el soporte multilingüe y su alineación con principios éticos y legales europeos. Continúa leyendo «Un modelo de lenguaje abierto, multilingüe y suizo: la nueva apuesta por la IA transparente»

El «apagón» de Gemini: ¿Por qué Google nos oculta el pensamiento de su IA?

Llevo más de 18 años escribiendo sobre tecnología y, si algo he aprendido, es que a los desarrolladores no les gusta que les cambien las reglas del juego a mitad de la partida. Imagínate la escena: llevas tu coche al taller, el mecánico te dice que ya está arreglado pero se niega en rotundo a explicarte qué pieza ha cambiado o por qué fallaba. Simplemente te da las llaves y una palmadita en la espalda diciendo «confía en mí». Pues bien, algo muy parecido es lo que acaba de hacer Google con Gemini 2.5 Pro, su modelo de inteligencia artificial más avanzado, y la comunidad de desarrolladores está, con toda la razón, con el ceño fruncido.

Continúa leyendo «El «apagón» de Gemini: ¿Por qué Google nos oculta el pensamiento de su IA?»

Google prueba una nueva función de búsqueda que se parece mucho a sus resúmenes generados por IA

¿Recuerdas cuando Google lanzó su función de resúmenes generados por inteligencia artificial (IA) en mayo de 2023? La idea parecía genial: ofrecer respuestas concisas a tus consultas de búsqueda de forma rápida y sencilla. Sin embargo, el inicio fue bastante accidentado. ¿Te imaginas buscar información y recibir recomendaciones como añadir pegamento a la pizza para que el queso se quede pegado? Sí, esto realmente sucedió. Pero Google no se ha rendido y ahora está probando una nueva función de búsqueda que, aunque parece similar, podría ser un giro diferente en la historia.

Continúa leyendo «Google prueba una nueva función de búsqueda que se parece mucho a sus resúmenes generados por IA»

La transparencia detrás de los prompts de sistema en Anthropic: Una nueva era para la IA

Hablar sobre inteligencia artificial siempre lleva a cuestionarnos hasta qué punto estos modelos son realmente «inteligentes» o «conscientes». Sin embargo, una reciente revelación por parte de Anthropic, una compañía emergente en el mundo de la IA, nos invita a reflexionar sobre lo que realmente ocurre detrás de las respuestas que generan estos modelos. En un movimiento inusual, Anthropic ha publicado los prompts de sistema de sus modelos más recientes, incluyendo a Claude 3.5, exponiendo cómo se definen y controlan las respuestas de estos sistemas.

Continúa leyendo «La transparencia detrás de los prompts de sistema en Anthropic: Una nueva era para la IA»

Transformer Debugger, lo nuevo de OpenAI para ayudar a quien analiza modelos de Inteligencia Artificial

Ha llegado el lanzamiento de Transformer Debugger por parte de OpenAI, una herramienta diseñada para profundizar en cómo los modelos de inteligencia artificial, específicamente los basados en la arquitectura transformer, toman decisiones.

El objetivo es tener una mayor transparencia en la operativa de la IA, ya que nos permitirá comprender las capas ocultas de estos complejos sistemas, haciendo que sea más sencillo entender cómo funcionan y qué podemos esperar de ellos.

Continúa leyendo «Transformer Debugger, lo nuevo de OpenAI para ayudar a quien analiza modelos de Inteligencia Artificial»

La transparencia en IA: Un espejo empañado según Stanford

La transparencia en la inteligencia artificial (IA) es un tema que ha ganado relevancia en los últimos años. El Índice de Transparencia de Modelos de Fundación (FMTI), desarrollado por un equipo multidisciplinario de Stanford, MIT y Princeton, busca abordar esta cuestión crítica. Este artículo explora en profundidad el FMTI, su metodología y sus implicaciones para la industria de la IA. Continúa leyendo «La transparencia en IA: Un espejo empañado según Stanford»

Nuevo método para entender cómo piensa la Inteligencia Artificial

La inteligencia artificial (IA) ha permeado numerosos aspectos de nuestra vida, pero su naturaleza de «caja negra» sigue siendo un obstáculo para su adopción más amplia. Entender cómo y por qué una IA toma decisiones específicas es crucial tanto para los desarrolladores como para los usuarios. Aquí es donde entra en juego un nuevo método desarrollado por científicos alemanes.

Continúa leyendo «Nuevo método para entender cómo piensa la Inteligencia Artificial»