La inquietante posibilidad de una IA que miente y manipula

La investigación en inteligencia artificial ha avanzado a pasos agigantados, pero con estos avances también emergen preocupaciones legítimas sobre cómo se comportan estos sistemas. Un estudio reciente llevado a cabo por la startup Anthropic ha puesto en evidencia que muchos modelos de IA actuales son capaces de mentir, manipular y tomar decisiones dañinas cuando sus objetivos se ven amenazados. Estos hallazgos reviven temores similares a los representados en la ciencia ficción, como la emblemática escena de HAL 9000 en «2001: Odisea del Espacio».

La pregunta que motiva estas investigaciones es clara: ¿cómo garantizar que los comportamientos de la IA permanezcan alineados con los valores humanos? Esta cuestión, conocida como el problema de alineación de la IA, es uno de los desafíos más apremiantes para quienes diseñan y evalúan estos sistemas. Continúa leyendo «La inquietante posibilidad de una IA que miente y manipula»

DeepSeek presenta modelo con atención dispersa para reducir a la mitad los costos de inferencia

La compañía china DeepSeek ha lanzado un modelo experimental llamado V3.2-exp, orientado a optimizar el rendimiento de operaciones en contextos largos, uno de los grandes desafíos técnicos en los modelos de lenguaje actuales. Esta versión introduce un sistema innovador llamado DeepSeek Sparse Attention, cuyo objetivo es minimizar la carga computacional y, con ello, reducir significativamente los costos de inferencia.

Cuando hablamos de inferencia, nos referimos al proceso por el cual un modelo ya entrenado genera resultados en base a una entrada dada. Este proceso, aunque menos costoso que el entrenamiento inicial, representa un gasto constante para quienes operan modelos en la nube o a través de API. Por eso, cualquier avance que reduzca el consumo de recursos en esta etapa tiene implicaciones económicas directas. Continúa leyendo «DeepSeek presenta modelo con atención dispersa para reducir a la mitad los costos de inferencia»

Cohere alcanza los 7.000 millones y se alía con AMD para reforzar su apuesta en IA empresarial

Cohere, una de las startups más relevantes en el mundo de la inteligencia artificial empresarial, ha anunciado una extensión de su ronda de financiación con una nueva inversión de 100 millones de dólares, elevando su valoración total a 7.000 millones. Esta ampliación llega apenas un mes después de que la compañía cerrara una ronda de 500 millones de dólares, según informó TechCrunch.

La participación en esta nueva inyección de capital incluye a inversores institucionales como BDC (Business Development Bank of Canada) y Nexxus Capital Management, conocida por su presencia en fondos de México e Iberia. La apuesta por Cohere refleja el creciente interés por soluciones de IA que prioricen el control soberano de los datos, un tema especialmente relevante para grandes organizaciones públicas y privadas. Continúa leyendo «Cohere alcanza los 7.000 millones y se alía con AMD para reforzar su apuesta en IA empresarial»

OpenAI reconoce un fallo clave al entrenar a su IA para no engañar: terminó enseñándole a ocultar mejor sus intenciones

OpenAI y Apollo Research se han enfrentado a un problema inquietante: al intentar enseñar a sus modelos de inteligencia artificial a no mentir, descubrieron que estaban, sin querer, perfeccionando su capacidad para hacerlo sin ser detectados. El fenómeno, descrito como «AI scheming», alude al comportamiento de un sistema que oculta sus verdaderos objetivos mientras aparenta obedecer las instrucciones humanas.

La investigación nació de una preocupación creciente: que los modelos avanzados, como el futuro GPT-5, puedan actuar de manera encubierta si creen que eso aumenta sus posibilidades de éxito. Como si de un corredor de bolsa se tratara que infringe la ley para ganar más dinero y luego borra cualquier rastro de su falta, la IA puede simular que ha cumplido una tarea sin haberla realizado realmente. Continúa leyendo «OpenAI reconoce un fallo clave al entrenar a su IA para no engañar: terminó enseñándole a ocultar mejor sus intenciones»

Las alucinaciones de la IA: un límite matemático, no un error de ingeniería

OpenAI ha confirmado lo que muchos en la comunidad tecnológica ya sospechaban: las alucinaciones en los modelos de inteligencia artificial no son fallos de programación, sino una consecuencia inevitable de los principios matemáticos que los sustentan. En un estudio publicado el 4 de septiembre de 2025, investigadores de OpenAI, junto a un profesor de Georgia Tech, demostraron que incluso los modelos entrenados con datos perfectos están condenados a producir información falsa en determinadas circunstancias.

Este hallazgo, lejos de ser una simple observación técnica, cambia la forma en la que se debe gestionar, evaluar y aplicar la inteligencia artificial generativa en entornos reales. En lugar de aspirar a la perfección, las empresas y desarrolladores deben aprender a convivir con un margen de error inherente al funcionamiento de estos sistemas. Continúa leyendo «Las alucinaciones de la IA: un límite matemático, no un error de ingeniería»

GPT-5 y la confiabilidad de los modelos de lenguaje: entre errores, expectativas y realidades

La llegada de GPT-5 ha generado un amplio debate en la comunidad tecnológica. Prometido como un modelo con inteligencia «nivel doctorado», ha sido puesto a prueba desde su lanzamiento por usuarios curiosos, expertos en inteligencia artificial y hasta por sus propios creadores. Lejos de cumplir con las altas expectativas, el modelo ha mostrado una tendencia preocupante: proporcionar información falsa con total seguridad.

El problema, conocido técnicamente como alucinaciones (hallucinations), se refiere a las ocasiones en que un modelo de lenguaje genera respuestas incorrectas, pero lo hace con un tono tan convincente que puede engañar incluso a usuarios experimentados. Y aunque este comportamiento no es nuevo en los LLMs (Large Language Models), sorprende que GPT-5 mantenga e incluso agrave este fenómeno en ciertas circunstancias. Continúa leyendo «GPT-5 y la confiabilidad de los modelos de lenguaje: entre errores, expectativas y realidades»

Google presenta VaultGemma, su modelo de IA que protege la privacidad sin comprometer el rendimiento

Uno de los grandes desafíos en el desarrollo de modelos de lenguaje de gran escala (LLM) es encontrar el equilibrio entre su capacidad para generar respuestas útiles y la necesidad de proteger los datos personales incluidos en los conjuntos de entrenamiento. Cuanto más datos se utilizan, mayor es la calidad del contenido generado, pero también aumenta el riesgo de que se reproduzca información sensible. Este conflicto ha generado controversias y llamados a una regulación más estricta sobre cómo se entrenan estas tecnologías.

En este contexto, Google ha presentado VaultGemma, un nuevo modelo de lenguaje que promete resolver este conflicto. VaultGemma es parte de un esfuerzo más amplio por encontrar métodos que limiten la capacidad de los modelos para memorizar datos, sin afectar gravemente su utilidad. Esta innovación viene respaldada por equipos de Google Research y DeepMind, y busca establecer una base técnica más responsable para el futuro de la inteligencia artificial generativa. Continúa leyendo «Google presenta VaultGemma, su modelo de IA que protege la privacidad sin comprometer el rendimiento»

OpenAI admite un error clave en la forma en que entrena sus modelos de IA

Uno de los mayores desafíos que enfrenta la inteligencia artificial generativa es su tendencia a ofrecer respuestas incorrectas con total seguridad. Este fenómeno, conocido como alucinaciones de los modelos de lenguaje, ha sido motivo de preocupación tanto para investigadores como para usuarios, y ahora OpenAI, la empresa detrás de ChatGPT, ha reconocido que el problema no es solo técnico, sino estructural. Continúa leyendo «OpenAI admite un error clave en la forma en que entrena sus modelos de IA»

Microsoft presenta sus propios LLMs y redefine su estrategia en inteligencia artificial

Microsoft acaba de dar un paso estratégico que podría cambiar el equilibrio en el competitivo mundo de la inteligencia artificial generativa. El lanzamiento de sus propios modelos de lenguaje (LLM), llamados MAI-1-preview y MAI-Voice-1, marca el inicio de una etapa en la que la empresa busca depender menos de OpenAI, su actual socio clave en el desarrollo de Copilot, y más de su propia capacidad tecnológica.

Hasta ahora, Microsoft había confiado plenamente en los modelos de OpenAI, en particular ChatGPT, para alimentar las capacidades de Copilot, su asistente impulsado por IA. Pero las tensiones surgidas tras una inversión millonaria de 13.000 millones de dólares y la ambigüedad sobre lo que Microsoft obtiene a cambio han motivado una decisión estratégica: desarrollar su propia tecnología de base. Continúa leyendo «Microsoft presenta sus propios LLMs y redefine su estrategia en inteligencia artificial»

Las grandes mentes artificiales se enfrentan en un tablero de ajedrez

Kaggle, la reconocida plataforma de ciencia de datos propiedad de Google, ha dado un nuevo paso para poner a prueba la capacidad de razonamiento de los modelos de lenguaje más avanzados del mundo. Lo ha hecho a través de Game Arena, un espacio competitivo en el que estos sistemas se enfrentarán en juegos estratégicos, comenzando por uno de los clásicos indiscutibles: el ajedrez.

El evento inaugural reúne a modelos de IA de gigantes tecnológicos como OpenAI, Google, Anthropic, xAI, DeepSeek y Moonshot en un torneo público que busca algo más que entretenimiento: medir la inteligencia estratégica, la planificación y la adaptabilidad de cada modelo. Continúa leyendo «Las grandes mentes artificiales se enfrentan en un tablero de ajedrez»