DeepSeek lanza modelos de IA que desafían a GPT-5 y Gemini, y los ofrece de forma gratuita

La empresa china de inteligencia artificial DeepSeek ha sacudido el tablero global con el lanzamiento de dos nuevos modelos que, según sus creadores, igualan o superan las capacidades de GPT-5 de OpenAI y Gemini 3.0 Pro de Google. Los modelos DeepSeek-V3.2 y DeepSeek-V3.2-Speciale han sido presentados como sistemas de razonamiento de vanguardia y han logrado resultados sobresalientes en competencias internacionales de matemáticas, informática y programación.

Ambos modelos han sido liberados bajo una licencia MIT, lo que implica que cualquier desarrollador o empresa puede descargarlos, modificarlos y usarlos sin restricciones. Este movimiento pone en jaque el modelo de negocio basado en APIs pagas de las grandes tecnológicas, al ofrecer un rendimiento comparable de forma completamente gratuita. Continúa leyendo «DeepSeek lanza modelos de IA que desafían a GPT-5 y Gemini, y los ofrece de forma gratuita»

Una nueva «élite nuclear»: Rusia apuesta todo a la inteligencia artificial nacional

El primer subdirector ejecutivo de Sberbank, Alexander Vedyakhin, ha trazado una comparación que puede parecer exagerada a primera vista, pero que refleja la intensidad del momento tecnológico global: la inteligencia artificial es el nuevo poder nuclear. En su visión, expresada durante el evento AI Journey celebrado en Rusia, los países que desarrollen sus propios modelos de lenguaje de gran escala (LLM) estarán en un club exclusivo y estratégico, similar al de las potencias nucleares.

Rusia, asegura Vedyakhin, ya forma parte de ese grupo restringido de siete países que han logrado crear modelos de inteligencia artificial propios, sin depender de versiones extranjeras. Este avance, en el contexto geopolítico y tecnológico actual, no es menor. Como ocurre con los secretos de Estado, entregar datos confidenciales a modelos desarrollados fuera del país puede acarrear riesgos enormes, especialmente si se trata de sectores como la sanidad, los servicios públicos en línea o la educación. Continúa leyendo «Una nueva «élite nuclear»: Rusia apuesta todo a la inteligencia artificial nacional»

Un paso hacia la robótica intuitiva: así funciona el algoritmo BrainBody-LLM

La robótica moderna está dando un giro significativo con el desarrollo de BrainBody-LLM, un algoritmo que busca romper con las limitaciones de los sistemas tradicionales para dar lugar a una nueva generación de máquinas capaces de actuar con una adaptabilidad similar a la humana. Diseñado por investigadores de la NYU Tandon School of Engineering, este sistema propone un enfoque innovador que imita la comunicación entre el cerebro y el cuerpo humano durante el movimiento. Continúa leyendo «Un paso hacia la robótica intuitiva: así funciona el algoritmo BrainBody-LLM»

Derrotando la no determinación en la inferencia de modelos de lenguaje

La reproducibilidad ha sido siempre un pilar de la investigación científica, pero al trabajar con modelos de lenguaje grandes (LLM), esta tarea se complica más de lo que parece. Aunque podría suponerse que ajustar la temperatura a cero garantizaría respuestas repetibles, en la práctica, los resultados pueden variar incluso en condiciones aparentemente idénticas. Continúa leyendo «Derrotando la no determinación en la inferencia de modelos de lenguaje»

GPT-5.1: la versión más adaptable y cercana de ChatGPT hasta la fecha

OpenAI ha presentado GPT-5.1, una evolución directa de su modelo anterior, GPT-5. Esta versión no busca reinventar la rueda, sino perfeccionar el rendimiento y la experiencia de uso. En lugar de cambios radicales, apuesta por una serie de mejoras en la forma en que entiende, responde y se ajusta a las necesidades del usuario. Es como si el asistente virtual que muchos ya usan a diario hubiera tomado clases de escucha activa y empática. Continúa leyendo «GPT-5.1: la versión más adaptable y cercana de ChatGPT hasta la fecha»

Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios

Los robots que integran modelos de lenguaje de gran escala (LLM) están ganando terreno en tareas que van desde la asistencia en el hogar hasta la interacción en entornos laborales. Sin embargo, una investigación conjunta de Carnegie Mellon University y el King’s College de Londres revela un panorama preocupante: estos sistemas no están preparados para operar con seguridad en el mundo real cuando tienen acceso a información personal o se enfrentan a decisiones complejas.

El estudio, publicado en el International Journal of Social Robotics, evaluó por primera vez el comportamiento de robots controlados por LLM cuando se les proporciona información sensible como el género, nacionalidad o religión de una persona. Los resultados fueron alarmantes. Todos los modelos analizados fallaron en pruebas críticas de seguridad, mostraron sesgos discriminatorios y, en varios casos, aceptaron instrucciones que podrían derivar en daños físicos graves. Continúa leyendo «Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios»

DeepSeek-OCR: una nueva forma de comprimir texto a través de imágenes

Cuando pensamos en inteligencia artificial y lenguaje, lo primero que nos viene a la mente es texto plano, líneas de palabras que una máquina debe leer y procesar. Pero, ¿y si esa no fuera la manera más eficiente de hacerlo? Esa es la premisa detras de DeepSeek-OCR, un modelo de código abierto desarrollado por la firma china DeepSeek que ha desafiado los cánones tradicionales del procesamiento de lenguaje natural.

En lugar de leer texto como secuencias lineales de tokens, DeepSeek-OCR convierte el texto en imágenes y lo procesa visualmente. Esta estrategia, llamada «compresión óptica de contexto», permite reducir la cantidad de datos que una IA necesita para entender documentos extensos. La idea central es que, al ver el texto como una imagen, se puede comprimir su contenido hasta diez veces, sin perder información crucial. Continúa leyendo «DeepSeek-OCR: una nueva forma de comprimir texto a través de imágenes»

Google presenta un modelo de IA que identifica una nueva ruta terapéutica contra el cáncer

Google DeepMind, en colaboración con la Universidad de Yale, ha lanzado Cell2Sentence-Scale 27B (C2S-Scale), un modelo de 27 mil millones de parámetros diseñado para analizar el lenguaje de las células individuales. Construido sobre la familia de modelos abiertos Gemma, este avance no solo amplía los límites de la inteligencia artificial en biomedicina, sino que ha logrado formular una hipótesis completamente nueva sobre el comportamiento celular en contextos de cáncer, posteriormente validada en laboratorio.

El proyecto demuestra cómo el escalado de modelos biológicos no solo mejora tareas conocidas, sino que permite el surgimiento de capacidades novedosas, como el razonamiento condicional en contextos específicos, algo que los modelos más pequeños simplemente no lograban alcanzar. Continúa leyendo «Google presenta un modelo de IA que identifica una nueva ruta terapéutica contra el cáncer»

La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos

En el entrenamiento de los modelos de lenguaje grande (LLMs), se tiende a pensar que la calidad y la cantidad masiva de datos son garantes de seguridad. Pero un reciente estudio de Anthropic, en colaboración con el UK AI Safety Institute y el Alan Turing Institute, ha puesto esta idea patas arriba. La investigación ha demostrado que no hace falta contaminar grandes cantidades de datos para comprometer un modelo: basta con apenas 250 documentos maliciosos para insertar una puerta trasera o «backdoor» funcional en modelos de hasta 13.000 millones de parámetros.

Esto no es una simple advertencia teórica. La investigación señala que incluso los modelos entrenados con datasets optimizados y gigantescos, como los basados en el enfoque Chinchilla-optimal, son vulnerables si se introduce un pequeño conjunto de entradas cuidadosamente diseñadas. Es como si una sola gota de tinta bastara para enturbiar un balde entero de agua. Continúa leyendo «La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos»

Petri, la herramienta de código abierto que revela los riesgos más ocultos de los modelos de IA

Anthropic, la startup especializada en inteligencia artificial responsable del modelo Claude, ha lanzado Petri, una herramienta de código abierto cuyo objetivo es identificar comportamientos problemáticos en modelos de IA avanzados. Petri no funciona como un simple chequeo de seguridad; se trata de un entorno en el que agentes de IA simulan conversaciones extensas con otros modelos para detectar si presentan conductas como la manipulación, la mentira o la obediencia excesiva.

El experimento se realizó sobre 14 modelos de última generación, incluyendo Claude Sonnet 4.5, GPT-5, Gemini 2.5 Pro y Grok 4. En total se diseñaron 111 escenarios que buscaban explorar hasta qué punto estas IA son capaces de mantener una conducta alineada con los intereses humanos.

Petri se apoya en la idea de que no se puede mejorar lo que no se mide. Por eso, aunque los indicadores actuales sean aproximados, sirven como punto de partida para seguir avanzando en la alineación de la inteligencia artificial con valores seguros y éticos. Continúa leyendo «Petri, la herramienta de código abierto que revela los riesgos más ocultos de los modelos de IA»