A medida que ChatGPT y otros asistentes de IA dejan de ser solo “cajas de texto” y empiezan a navegar, abrir archivos o conversar con aplicaciones conectadas, cambia la escala del riesgo. No es lo mismo pedir una receta que pedirle al sistema que consulte un panel interno, lea un documento confidencial y prepare un… Continúa leyendo »

La investigación en ciencias sociales vive de historias: lo que la gente cuenta en una entrevista, lo que un profesor decide incluir en un temario, la forma en que una empresa se presenta en una oferta de empleo, incluso lo que una comunidad deja ver en fotografías antiguas. Ese material es valioso porque captura matices,… Continúa leyendo »

Anthropic ha decidido mover una ficha relevante en su producto estrella, Claude: varias funciones que hasta ahora estaban reservadas a sus planes de pago pasan a estar disponibles en el plan gratuito, siempre que el usuario tenga una cuenta y acceda con sesión iniciada. El anuncio se ha comunicado desde los canales oficiales de Claude… Continúa leyendo »

Claude abre herramientas “premium” a su plan gratuito: archivos, conectores, skills y compaction

Anthropic ha decidido mover una ficha relevante en su producto estrella, Claude: varias funciones que hasta ahora estaban reservadas a sus planes de pago pasan a estar disponibles en el plan gratuito, siempre que el usuario tenga una cuenta y acceda con sesión iniciada. El anuncio se ha comunicado desde los canales oficiales de Claude y se ha recogido en medios como Gadgets 360 y Moneycontrol.

La lectura práctica es sencilla: Claude deja de ser solo “un chat que responde” para acercarse más a una mesa de trabajo. Si antes el usuario gratuito recibía texto y tenía que convertirlo manualmente en un documento, una hoja de cálculo o un archivo con formato, ahora puede pedir el resultado ya empaquetado. Si antes el asistente vivía aislado de tus carpetas y tus herramientas diarias, ahora puede conectarse a algunas de ellas. Si antes cada conversación larga terminaba pareciéndose a una madeja de hilos cruzados, ahora entra un mecanismo para ordenar el pasado y seguir.

Este movimiento llega en un momento en el que el mercado está experimentando con fórmulas de monetización y distribución de funciones. OpenAI, por ejemplo, ha confirmado que está probando anuncios en ChatGPT en Estados Unidos para usuarios adultos registrados en los niveles Free y Go, manteniendo sin anuncios los planes de pago. En ese contexto, ofrecer más capacidades sin coste se interpreta como una forma de ganar tracción sin obligar al usuario a pasar por caja desde el minuto uno. Continúa leyendo «Claude abre herramientas “premium” a su plan gratuito: archivos, conectores, skills y compaction»

Anthropic se valora en 380.000 millones tras captar 30.000 millones: lo que dice esta cifra sobre la fiebre de la IA

La start-up Anthropic ha cerrado una nueva ronda de financiación que la sitúa en una valoración de 380.000 millones de dólares, según ha informado The New York Times. La cifra llama la atención por dos motivos: por el tamaño del cheque —30.000 millones— y porque supone más que duplicar la valoración de su ronda anterior, cerrada en septiembre, cuando se hablaba de 183.000 millones. En el lenguaje de las startups, esto equivale a pasar en pocos meses de “empresa muy grande” a “peso pesado del mercado”, algo que normalmente se ve en ciclos más largos.

Para aterrizarlo con una metáfora cotidiana: es como si una cafetería de barrio que ya funciona bien levantara capital para abrir de golpe decenas de locales, comprar tostadores propios, asegurar el suministro de café durante años y, de paso, pagar por adelantado las máquinas más caras del mercado. La escala es comparable. En inteligencia artificial, el “local” no es una tienda física, sino infraestructura, datos, talento y, sobre todo, capacidad de cómputo. Continúa leyendo «Anthropic se valora en 380.000 millones tras captar 30.000 millones: lo que dice esta cifra sobre la fiebre de la IA»

El Command Center de Divi 5: atajos, comandos y menos clics para construir más rápido

Elegant Themes ha presentado una nueva función para Divi 5 llamada Command Center, anunciada por Nick Roach en el blog oficial de la compañía el 13 de febrero de 2026. La idea es sencilla de entender si alguna vez has usado el buscador de tu ordenador para abrir apps sin pasar por menús: en lugar de perseguir opciones con el ratón, escribes lo que quieres hacer y lo ejecutas al momento.

En la práctica, el Command Center funciona como una paleta de comandos integrada en el constructor. Está pensada para quienes ya tienen el “mapa mental” de lo que van a construir: “voy a meter un módulo aquí, anidar otro dentro, duplicar un par de botones y aplicar mis estilos”. Ese tipo de secuencia que, con clics, se convierte en una coreografía de abrir paneles, desplazarse, seleccionar, confirmar y volver atrás. Con el nuevo sistema, esa coreografía se convierte en una frase escrita. Continúa leyendo «El Command Center de Divi 5: atajos, comandos y menos clics para construir más rápido»

Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA

Hasta hace poco, la rivalidad entre Anthropic y OpenAI se medía en benchmarks, nuevos modelos y funciones para usuarios. Esta semana el pulso se trasladó a un terreno mucho más terrenal: el dinero electoral. La creadora de Claude anunció una aportación de 20 millones de dólares a Public First Action, una organización política que pretende impulsar candidatos favorables a imponer límites y reglas más claras al sector.

La noticia encaja con un cambio de época: la inteligencia artificial ya no es solo una cuestión de producto o de investigación, sino un asunto que toca empleo, educación, seguridad nacional, ciberseguridad y protección de menores. Cuando una tecnología empieza a rozar “casi todo” en la vida pública, el debate regulatorio se vuelve un partido con grada, árbitro y, como estamos viendo, patrocinadores. Continúa leyendo «Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA»

Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts

A medida que ChatGPT y otros asistentes de IA dejan de ser solo “cajas de texto” y empiezan a navegar, abrir archivos o conversar con aplicaciones conectadas, cambia la escala del riesgo. No es lo mismo pedir una receta que pedirle al sistema que consulte un panel interno, lea un documento confidencial y prepare un informe. Cada nueva puerta que se abre hacia el exterior es una oportunidad para que alguien intente colarse.

OpenAI ha puesto el foco en un problema concreto: la inyección de prompts o prompt injection, una familia de ataques en la que un tercero intenta engañar al modelo para que siga instrucciones maliciosas o termine revelando datos sensibles. Si lo pensamos como una conversación normal, es como cuando alguien se mete en medio y, con tono convincente, intenta que cuentes algo privado “porque es urgente” o “porque lo pide tu jefe”. En IA, esa voz puede venir escondida en una web, en un archivo, en un correo o incluso en el texto que una app conectada le pasa al asistente.

Según explicó OpenAI en un comunicado fechado el 13 de febrero de 2026, su respuesta llega con dos novedades: Lockdown Mode y las etiquetas Elevated Risk para ciertas capacidades que, por su naturaleza, introducen un riesgo adicional. Continúa leyendo «Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts»

GABRIEL: cuando los datos cualitativos empiezan a “hablar” en números

La investigación en ciencias sociales vive de historias: lo que la gente cuenta en una entrevista, lo que un profesor decide incluir en un temario, la forma en que una empresa se presenta en una oferta de empleo, incluso lo que una comunidad deja ver en fotografías antiguas. Ese material es valioso porque captura matices, contradicciones y contexto. El problema llega cuando quieres convertir todo eso en evidencia que pueda analizarse con rigor estadístico. Revisar miles de documentos a mano se parece a intentar vaciar una piscina con una cucharita: se puede, pero el coste en tiempo y energía acaba condicionando qué preguntas se investigan y cuáles se abandonan.

Con esa tensión de fondo, OpenAI presentó el 13 de febrero de 2026, a través de su equipo de investigación económica, GABRIEL, un kit de herramientas open source pensado para transformar texto e imágenes no estructurados en mediciones cuantitativas que luego pueden analizarse con métodos habituales en economía y ciencias sociales. La idea central es simple de explicar y compleja de ejecutar: usar GPT para que el trabajo repetitivo de etiquetar y puntuar documentos deje de ser el cuello de botella, sin quitar al investigador del asiento del conductor. La propia OpenAI lo plantea como una ayuda para estudiar lo cualitativo “a escala”, apoyándose en un tutorial y un artículo académico donde reportan pruebas de precisión. Continúa leyendo «GABRIEL: cuando los datos cualitativos empiezan a “hablar” en números»

Cinco formas en que Gemini 3 puede ayudar a estudiar mejor este semestre

Empezar un semestre nuevo suele venir con esa mezcla de ilusión y vértigo: horarios por ajustar, apuntes por ordenar y la sensación de que esta vez sí vas a estudiar “mejor”. La buena noticia es que hoy la tecnología puede quitarte parte del peso sin hacer el trabajo por ti. Con Gemini 3, Google está incorporando funciones pensadas para aprender con más método, practicar exámenes como el SAT o el JEE Main, convertir tus notas en quizzes o audio para repasar en movimiento y hasta ayudarte a preparar tu salto a prácticas o empleo. La clave está en usarlo como un compañero de estudio que te guía, te organiza y te da feedback, no como un atajo para salir del paso. Continúa leyendo «Cinco formas en que Gemini 3 puede ayudar a estudiar mejor este semestre»

El apagón de GPT-4o y el efecto “San Valentín” en la comunidad

La retirada de modelos antiguos por parte de OpenAI suele sonar a trámite técnico: se optimiza infraestructura, se simplifica el catálogo, se empuja a la gente hacia sistemas más nuevos. Esta vez, el movimiento ha tocado un nervio sensible. La compañía ha empezado a cerrar el acceso a versiones previas, entre ellas GPT-4o, un modelo de ChatGPT que se ganó fama por su tono cálido y su manera de conversar “como si hubiera alguien al otro lado”. El detalle temporal tampoco ayudó: el recorte llegó a las puertas de San Valentín, una fecha en la que muchas personas ya venían usando el chatbot como acompañante emocional.

Lo llamativo no es solo el retiro, sino la reacción. En redes y foros se organizó una pequeña campaña con etiqueta propia, #Keep4o, que mezcla protesta, nostalgia y un duelo que, para quien lo vive, se siente tan real como perder un lugar seguro. La conversación ha saltado del terreno de la ingeniería al de la psicología cotidiana: qué significa encariñarse con una interfaz, por qué una empresa decide “apagar” una personalidad que millones habían integrado en su rutina, y qué responsabilidades aparecen cuando la tecnología deja de ser herramienta para convertirse en compañía. Continúa leyendo «El apagón de GPT-4o y el efecto “San Valentín” en la comunidad»

El “interruptor” del cerebro que ayuda a aguantar más: qué han visto los científicos en ratones entrenados

Cuando pensamos en mejorar la resistencia física, solemos imaginar un trabajo casi exclusivamente “de periferia”: músculos que se adaptan, corazón que bombea con más eficiencia, pulmones que afinan su capacidad. Un nuevo estudio en ratones propone una pieza que faltaba en ese puzle: un circuito cerebral que se activa con el ejercicio y que parece coordinar parte de esas mejoras en el resto del cuerpo. El trabajo se publicó en Neuron y ha sido destacado por medios como ScienceAlert y Nature.

La idea de fondo es sencilla de entender si usamos una metáfora cotidiana. Imagina que tu cuerpo es una ciudad que quiere organizar una carrera popular cada semana. No basta con reforzar las carreteras (músculos) o ampliar el suministro eléctrico (metabolismo): también necesitas una central de control que ajuste horarios, semáforos y recursos. En estos experimentos, esa “central” estaría en una zona concreta del hipotálamo. Continúa leyendo «El “interruptor” del cerebro que ayuda a aguantar más: qué han visto los científicos en ratones entrenados»

Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica

La promesa de la computación cuántica no es tener un ordenador “más rápido” para todo, sino uno capaz de abordar ciertos problemas que a los sistemas clásicos se les atragantan porque el número de combinaciones crece como una bola de nieve cuesta abajo. Simular moléculas complejas con fidelidad química o poner a prueba algunos esquemas de criptografía son ejemplos típicos: incluso con supercomputadores, llega un punto en el que el cálculo se vuelve inmanejable.

El problema es que esa potencia cuántica es frágil. Los estados cuánticos se comportan como una pompa de jabón: útiles y bellos, pero se rompen con cualquier vibración, calor residual o ruido electromagnético. Por eso el gran objetivo industrial no es solo “hacer qubits”, sino hacerlos con tasas de error lo bastante bajas como para que la corrección de errores no se coma todo el avance. En ese tablero de ajedrez, los materiales importan tanto como la electrónica o el software. Continúa leyendo «Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica»