Nueva York aprueba la RAISE Act: qué obliga a las grandes IA y por qué abre otro frente con Washington

Nueva York acaba de dar un paso que llevaba meses cocinándose a fuego lento: la gobernadora Kathy Hochul ha firmado la RAISE Act, una norma centrada en seguridad y transparencia en IA que convierte al estado en uno de los primeros grandes territorios de EE. UU. en exigir cuentas claras a los desarrolladores más potentes. La noticia, adelantada por TechCrunch, llega tras un tira y afloja político en el que el sector tecnológico intentó suavizar el alcance de la medida y en el que, según The New York Times, se negociaron cambios… pero para el año que viene, no para frenar la firma ahora.

La idea de fondo es sencilla de entender con un ejemplo cotidiano: si un edificio es tan grande que un incendio puede afectar a todo el barrio, no basta con confiar en que su sistema antiincendios “seguro que funciona”. Se piden inspecciones, protocolos y la obligación de avisar rápido si ocurre un incidente. Con la RAISE Act, Nueva York trata a los sistemas de IA de gran escala como esa infraestructura crítica: útil, sí, pero con riesgos que conviene vigilar con reglas verificables. Continúa leyendo «Nueva York aprueba la RAISE Act: qué obliga a las grandes IA y por qué abre otro frente con Washington»

AILuminate: El nuevo estándar para medir los riesgos de la inteligencia artificial

En el vertiginoso mundo de la inteligencia artificial (IA), donde los avances suceden a un ritmo acelerado, garantizar la seguridad y la ética en el desarrollo de modelos se ha convertido en una prioridad global. En este contexto, surge AILuminate, una iniciativa de MLCommons, una organización sin ánimo de lucro que busca establecer puntos de referencia rigurosos para evaluar los riesgos de los sistemas de IA.

Continúa leyendo «AILuminate: El nuevo estándar para medir los riesgos de la inteligencia artificial»

OpenAI y Anthropic compartirán sus modelos con el gobierno de EE. UU.

OpenAI y Anthropic han acordado permitir al gobierno de los Estados Unidos el acceso a sus principales nuevos modelos de inteligencia artificial antes de su lanzamiento al público, con el objetivo de mejorar su seguridad. Esta colaboración se formalizó a través de memorandos de entendimiento firmados con el Instituto de Seguridad de la IA de EE. UU., tal como anunció la agencia este jueves.

Continúa leyendo «OpenAI y Anthropic compartirán sus modelos con el gobierno de EE. UU.»

Mucha gente piensa que ChatGPT es consciente. Este es el motivo.

¿Alguna vez te has preguntado si ChatGPT es consciente? Pues, no estás solo. Un estudio reciente de la Universidad de Waterloo ha descubierto que una sorprendente proporción de usuarios activos de ChatGPT creen que el chatbot de OpenAI es consciente, con emociones y recuerdos propios. Clara Combatto, profesora de psicología y autora principal del estudio, señala que dos tercios de los encuestados tienen esta percepción errónea. Aunque la mayoría de los expertos afirman que la IA actual no puede ser consciente, esta creencia popular plantea nuevos desafíos para la industria de la inteligencia artificial.

Continúa leyendo «Mucha gente piensa que ChatGPT es consciente. Este es el motivo.»