Hasta hace poco, la rivalidad entre Anthropic y OpenAI se medía en benchmarks, nuevos modelos y funciones para usuarios. Esta semana el pulso se trasladó a un terreno mucho más terrenal: el dinero electoral. La creadora de Claude anunció una aportación de 20 millones de dólares a Public First Action, una organización política que pretende… Continúa leyendo »

Elegant Themes ha presentado una nueva función para Divi 5 llamada Command Center, anunciada por Nick Roach en el blog oficial de la compañía el 13 de febrero de 2026. La idea es sencilla de entender si alguna vez has usado el buscador de tu ordenador para abrir apps sin pasar por menús: en lugar… Continúa leyendo »

El 10 de febrero de 2026, Chile presentó Latam-GPT, un modelo de lenguaje de código abierto concebido para América Latina y el Caribe. El anuncio no se planteó como una carrera para “ganarle” a los gigantes del sector, sino como una manera de tener voz propia en una industria donde la mayoría de herramientas se… Continúa leyendo »

El Command Center de Divi 5: atajos, comandos y menos clics para construir más rápido

Elegant Themes ha presentado una nueva función para Divi 5 llamada Command Center, anunciada por Nick Roach en el blog oficial de la compañía el 13 de febrero de 2026. La idea es sencilla de entender si alguna vez has usado el buscador de tu ordenador para abrir apps sin pasar por menús: en lugar de perseguir opciones con el ratón, escribes lo que quieres hacer y lo ejecutas al momento.

En la práctica, el Command Center funciona como una paleta de comandos integrada en el constructor. Está pensada para quienes ya tienen el “mapa mental” de lo que van a construir: “voy a meter un módulo aquí, anidar otro dentro, duplicar un par de botones y aplicar mis estilos”. Ese tipo de secuencia que, con clics, se convierte en una coreografía de abrir paneles, desplazarse, seleccionar, confirmar y volver atrás. Con el nuevo sistema, esa coreografía se convierte en una frase escrita. Continúa leyendo «El Command Center de Divi 5: atajos, comandos y menos clics para construir más rápido»

Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA

Hasta hace poco, la rivalidad entre Anthropic y OpenAI se medía en benchmarks, nuevos modelos y funciones para usuarios. Esta semana el pulso se trasladó a un terreno mucho más terrenal: el dinero electoral. La creadora de Claude anunció una aportación de 20 millones de dólares a Public First Action, una organización política que pretende impulsar candidatos favorables a imponer límites y reglas más claras al sector.

La noticia encaja con un cambio de época: la inteligencia artificial ya no es solo una cuestión de producto o de investigación, sino un asunto que toca empleo, educación, seguridad nacional, ciberseguridad y protección de menores. Cuando una tecnología empieza a rozar “casi todo” en la vida pública, el debate regulatorio se vuelve un partido con grada, árbitro y, como estamos viendo, patrocinadores. Continúa leyendo «Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA»

Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts

A medida que ChatGPT y otros asistentes de IA dejan de ser solo “cajas de texto” y empiezan a navegar, abrir archivos o conversar con aplicaciones conectadas, cambia la escala del riesgo. No es lo mismo pedir una receta que pedirle al sistema que consulte un panel interno, lea un documento confidencial y prepare un informe. Cada nueva puerta que se abre hacia el exterior es una oportunidad para que alguien intente colarse.

OpenAI ha puesto el foco en un problema concreto: la inyección de prompts o prompt injection, una familia de ataques en la que un tercero intenta engañar al modelo para que siga instrucciones maliciosas o termine revelando datos sensibles. Si lo pensamos como una conversación normal, es como cuando alguien se mete en medio y, con tono convincente, intenta que cuentes algo privado “porque es urgente” o “porque lo pide tu jefe”. En IA, esa voz puede venir escondida en una web, en un archivo, en un correo o incluso en el texto que una app conectada le pasa al asistente.

Según explicó OpenAI en un comunicado fechado el 13 de febrero de 2026, su respuesta llega con dos novedades: Lockdown Mode y las etiquetas Elevated Risk para ciertas capacidades que, por su naturaleza, introducen un riesgo adicional. Continúa leyendo «Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts»

GABRIEL: cuando los datos cualitativos empiezan a “hablar” en números

La investigación en ciencias sociales vive de historias: lo que la gente cuenta en una entrevista, lo que un profesor decide incluir en un temario, la forma en que una empresa se presenta en una oferta de empleo, incluso lo que una comunidad deja ver en fotografías antiguas. Ese material es valioso porque captura matices, contradicciones y contexto. El problema llega cuando quieres convertir todo eso en evidencia que pueda analizarse con rigor estadístico. Revisar miles de documentos a mano se parece a intentar vaciar una piscina con una cucharita: se puede, pero el coste en tiempo y energía acaba condicionando qué preguntas se investigan y cuáles se abandonan.

Con esa tensión de fondo, OpenAI presentó el 13 de febrero de 2026, a través de su equipo de investigación económica, GABRIEL, un kit de herramientas open source pensado para transformar texto e imágenes no estructurados en mediciones cuantitativas que luego pueden analizarse con métodos habituales en economía y ciencias sociales. La idea central es simple de explicar y compleja de ejecutar: usar GPT para que el trabajo repetitivo de etiquetar y puntuar documentos deje de ser el cuello de botella, sin quitar al investigador del asiento del conductor. La propia OpenAI lo plantea como una ayuda para estudiar lo cualitativo “a escala”, apoyándose en un tutorial y un artículo académico donde reportan pruebas de precisión. Continúa leyendo «GABRIEL: cuando los datos cualitativos empiezan a “hablar” en números»

Cinco formas en que Gemini 3 puede ayudar a estudiar mejor este semestre

Empezar un semestre nuevo suele venir con esa mezcla de ilusión y vértigo: horarios por ajustar, apuntes por ordenar y la sensación de que esta vez sí vas a estudiar “mejor”. La buena noticia es que hoy la tecnología puede quitarte parte del peso sin hacer el trabajo por ti. Con Gemini 3, Google está incorporando funciones pensadas para aprender con más método, practicar exámenes como el SAT o el JEE Main, convertir tus notas en quizzes o audio para repasar en movimiento y hasta ayudarte a preparar tu salto a prácticas o empleo. La clave está en usarlo como un compañero de estudio que te guía, te organiza y te da feedback, no como un atajo para salir del paso. Continúa leyendo «Cinco formas en que Gemini 3 puede ayudar a estudiar mejor este semestre»

El apagón de GPT-4o y el efecto “San Valentín” en la comunidad

La retirada de modelos antiguos por parte de OpenAI suele sonar a trámite técnico: se optimiza infraestructura, se simplifica el catálogo, se empuja a la gente hacia sistemas más nuevos. Esta vez, el movimiento ha tocado un nervio sensible. La compañía ha empezado a cerrar el acceso a versiones previas, entre ellas GPT-4o, un modelo de ChatGPT que se ganó fama por su tono cálido y su manera de conversar “como si hubiera alguien al otro lado”. El detalle temporal tampoco ayudó: el recorte llegó a las puertas de San Valentín, una fecha en la que muchas personas ya venían usando el chatbot como acompañante emocional.

Lo llamativo no es solo el retiro, sino la reacción. En redes y foros se organizó una pequeña campaña con etiqueta propia, #Keep4o, que mezcla protesta, nostalgia y un duelo que, para quien lo vive, se siente tan real como perder un lugar seguro. La conversación ha saltado del terreno de la ingeniería al de la psicología cotidiana: qué significa encariñarse con una interfaz, por qué una empresa decide “apagar” una personalidad que millones habían integrado en su rutina, y qué responsabilidades aparecen cuando la tecnología deja de ser herramienta para convertirse en compañía. Continúa leyendo «El apagón de GPT-4o y el efecto “San Valentín” en la comunidad»

El “interruptor” del cerebro que ayuda a aguantar más: qué han visto los científicos en ratones entrenados

Cuando pensamos en mejorar la resistencia física, solemos imaginar un trabajo casi exclusivamente “de periferia”: músculos que se adaptan, corazón que bombea con más eficiencia, pulmones que afinan su capacidad. Un nuevo estudio en ratones propone una pieza que faltaba en ese puzle: un circuito cerebral que se activa con el ejercicio y que parece coordinar parte de esas mejoras en el resto del cuerpo. El trabajo se publicó en Neuron y ha sido destacado por medios como ScienceAlert y Nature.

La idea de fondo es sencilla de entender si usamos una metáfora cotidiana. Imagina que tu cuerpo es una ciudad que quiere organizar una carrera popular cada semana. No basta con reforzar las carreteras (músculos) o ampliar el suministro eléctrico (metabolismo): también necesitas una central de control que ajuste horarios, semáforos y recursos. En estos experimentos, esa “central” estaría en una zona concreta del hipotálamo. Continúa leyendo «El “interruptor” del cerebro que ayuda a aguantar más: qué han visto los científicos en ratones entrenados»

Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica

La promesa de la computación cuántica no es tener un ordenador “más rápido” para todo, sino uno capaz de abordar ciertos problemas que a los sistemas clásicos se les atragantan porque el número de combinaciones crece como una bola de nieve cuesta abajo. Simular moléculas complejas con fidelidad química o poner a prueba algunos esquemas de criptografía son ejemplos típicos: incluso con supercomputadores, llega un punto en el que el cálculo se vuelve inmanejable.

El problema es que esa potencia cuántica es frágil. Los estados cuánticos se comportan como una pompa de jabón: útiles y bellos, pero se rompen con cualquier vibración, calor residual o ruido electromagnético. Por eso el gran objetivo industrial no es solo “hacer qubits”, sino hacerlos con tasas de error lo bastante bajas como para que la corrección de errores no se coma todo el avance. En ese tablero de ajedrez, los materiales importan tanto como la electrónica o el software. Continúa leyendo «Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica»

OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras

OpenAI ha presentado GPT-5.3-Codex-Spark, una variante más compacta de su modelo orientado a programación dentro de Codex. La idea no es sustituir a la versión “completa”, sino cubrir ese hueco que muchos desarrolladores notan cuando trabajan con un asistente: el momento en que quieres probar algo rápido, iterar en segundos, pulir un fragmento de código o validar una hipótesis sin sentir que estás esperando a que arranque una cafetera antigua.

Según la compañía, Spark está diseñado para inferencias más rápidas y para una colaboración casi en tiempo real. En la práctica, esto apunta a sesiones de trabajo donde el usuario conversa con Codex, cambia requisitos sobre la marcha y necesita que el sistema responda con la misma agilidad con la que uno corrige una línea en el editor. La noticia, publicada por TechCrunch y atribuida a declaraciones de OpenAI, sitúa el lanzamiento el 12 de febrero de 2026 y lo encuadra como un paso clave en la evolución del producto. Continúa leyendo «OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras»

Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora

Los centros de datos se han convertido en el nuevo “gran electrodoméstico” de la economía digital. Si antes el consumo fuerte estaba en fábricas o grandes complejos industriales, ahora buena parte del tirón viene de edificios repletos de servidores que no paran ni de día ni de noche. En el caso de la IA generativa, la demanda energética se dispara: entrenar y operar modelos requiere muchos chips trabajando a plena carga y, por tanto, mucha electricidad y mucha refrigeración.

El conflicto aparece cuando esa electricidad no llega sola. Para conectar un centro de datos nuevo o ampliar uno existente, a menudo hay que reforzar subestaciones, líneas de transmisión y equipos de distribución. Son obras caras, y el gran debate local suele ser el mismo: ¿quién paga esas mejoras? Si el coste termina repartiéndose entre todos los usuarios de la red, los vecinos pueden notar subidas en su tarifa eléctrica, aunque no tengan nada que ver con la actividad del centro de datos. Es como si tu comunidad de vecinos tuviera que cambiar todo el cuadro eléctrico porque un único piso instala una cocina profesional: el edificio entero se ve afectado, aunque solo uno se beneficie.

En ese contexto, Anthropic ha anunciado que intentará evitar que sus data centers incrementen los costes de la electricidad para los residentes cercanos, según explicó la periodista Justine Calma en The Verge. La idea central es clara: la empresa dice que asumirá cargos mensuales más altos para cubrir el 100% de las mejoras necesarias para conectarse a la red, incluyendo la parte que de otro modo se trasladaría a los consumidores. Continúa leyendo «Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora»