ONCO-ACS: una brújula con inteligencia artificial para tratar el infarto en pacientes con cáncer

Un infarto de miocardio ya es, por sí solo, un evento que obliga a decidir rápido y con pocos márgenes de error. Si la persona tiene cáncer, la situación se vuelve todavía más delicada. El sistema cardiovascular suele estar más frágil, ya sea por el propio tumor, por tratamientos oncológicos previos o por un estado general debilitado. En ese contexto, el riesgo no es solo “volver a tener otro susto”: se incrementan las probabilidades de morir, de sufrir un sangrado grave o de padecer otro episodio cardiovascular importante en los meses posteriores.

La dificultad práctica se parece a conducir con lluvia intensa y obras en la carretera a la vez: frenar demasiado puede hacerte chocar por detrás; frenar poco puede sacarte de la vía. En medicina, ese equilibrio se traduce en escoger la prevención secundaria adecuada tras un síndrome coronario agudo: hay que reducir el riesgo de nuevos coágulos, sin disparar el riesgo de sangrado. En pacientes con cáncer, esa balanza es especialmente inestable. Continúa leyendo «ONCO-ACS: una brújula con inteligencia artificial para tratar el infarto en pacientes con cáncer»

Tech layoffs 2025-2026: por qué la industria vuelve a recortar y qué nos dice sobre el futuro cercano

Los despidos tecnológicos no aparecen de la nada: suelen llegar cuando la industria pasa de acelerar a levantar el pie. Durante la pandemia, muchas compañías contrataron como quien llena la despensa “por si acaso”: creció la demanda de apps, juegos, comercio online y herramientas de teletrabajo. Cuando el consumo se normalizó, se quedaron con estructuras pensadas para un pico que ya no era la rutina.

A ese ajuste clásico se le sumó un factor que cambia el tono de esta etapa: la inteligencia artificial. No es solo una nueva línea de negocio; en muchos equipos funciona como una navaja suiza que automatiza tareas que antes requerían manos humanas, desde atender consultas hasta producir informes. El resultado es incómodo: se invierte fuerte en IA, pero se recorta en puestos que la IA puede sustituir o “amplificar” con menos personas.

Según el recuento de Android Headlines, el periodo 2025-2026 está dejando un mapa muy claro: las empresas no recortan por un único motivo, sino por una mezcla de restructuración, presión competitiva, apuestas que no salieron bien y la necesidad de priorizar. Es como cuando una familia revisa gastos: no se cancela solo una suscripción, se replantea el presupuesto entero. Continúa leyendo «Tech layoffs 2025-2026: por qué la industria vuelve a recortar y qué nos dice sobre el futuro cercano»

Amazon recorta 16.000 puestos corporativos en 2026: qué implica su apuesta por eficiencia e IA

Amazon arranca 2026 con un recorte de unas 16.000 posiciones corporativas, que se suman a las aproximadamente 14.000 salidas ejecutadas a finales de 2025. El total se acerca a 30.000 puestos, la mayor cifra de recortes corporativos asociada a la compañía en un periodo tan corto. El matiz importante es dónde cae el golpe: el foco está en el empleo de oficina, no en el personal de almacenes y reparto que sostiene el día a día del comercio electrónico.

La compañía ronda los 1,57 millones de empleados en todo el mundo, pero la parte corporativa se sitúa alrededor de 350.000. Visto con una metáfora simple, es como si una cadena de supermercados decidiera rediseñar cómo funciona su sede central sin tocar, de entrada, la caja, la reposición o la logística de tienda. Continúa leyendo «Amazon recorta 16.000 puestos corporativos en 2026: qué implica su apuesta por eficiencia e IA»

Cuando el peligro no termina con el primer temblor

Un terremoto fuerte suele sentirse como el final de un episodio, pero en sismología muchas veces es solo el principio. Las réplicas son esos temblores posteriores que llegan cuando la gente intenta salir, cuando los equipos de rescate entran en edificios dañados o cuando se restablecen servicios críticos. En ocasiones, el daño añadido de una réplica puede ser tan grave —o más— que el del evento principal, porque encuentra estructuras ya debilitadas y comunidades en pleno esfuerzo de respuesta.

El problema práctico es que, tras un sismo relevante, autoridades y servicios de emergencia necesitan una idea rápida y razonable de qué puede ocurrir en las siguientes horas. Es como si, después de una tormenta, tuvieras que decidir en minutos si conviene cerrar una carretera por riesgo de desprendimientos: no esperas el informe perfecto de varios días si puedes disponer de un pronóstico fiable en el momento. Continúa leyendo «Cuando el peligro no termina con el primer temblor»

Un “mapa de carreteras” para entender las tecnologías que marcarán la década

El Stanford Emerging Technology Review 2026 se presenta como una guía pensada para quienes toman decisiones y necesitan contexto sin convertirse en expertos técnicos. Su objetivo es explicar, con un lenguaje accesible, qué está pasando en 10 tecnologías de frontera y qué señales conviene vigilar a corto y medio plazo. En lugar de centrarse en una sola disciplina, propone una visión de conjunto: cómo estas áreas avanzan a la vez y se empujan entre sí, como una fila de fichas de dominó donde el movimiento en una pieza acelera a las demás.

La iniciativa nace de una colaboración interna entre centros académicos y de investigación de Stanford, con una idea clara: traducir investigación puntera en un “manual de lectura rápida” para el mundo público y privado. No se trata solo de describir avances; también de aterrizar implicaciones sobre economía, seguridad, regulación y adopción social. Continúa leyendo «Un “mapa de carreteras” para entender las tecnologías que marcarán la década»

La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja

Hay periodos en tecnología que se sienten como una autopista de varios carriles en hora punta: todo se mueve rápido, hay más ruido del habitual y cualquier frenazo parece que puede provocar un choque en cadena. El auge actual de la inteligencia artificial encaja en esa imagen. Por un lado, las grandes compañías presentan resultados que suenan a récord histórico; por otro, dentro del propio sector se escucha un murmullo persistente: “¿y si esto está inflado?”.

Un buen termómetro de este clima es Nvidia, pieza clave porque sus chips sostienen buena parte de la infraestructura necesaria para entrenar y ejecutar modelos de IA. Según relataba The New York Times, la compañía comunicó un salto muy fuerte en su beneficio trimestral, un dato que alimenta la narrativa de que el mercado no solo crece, sino que lo hace con una intensidad poco común. El discurso del optimismo se apoya en una idea sencilla: si se venden tantos chips y tanta capacidad de cómputo, es porque la demanda es real.

La mirada escéptica, en cambio, hace una distinción importante. Comprar “picos y palas” no prueba por sí mismo que la mina esté dando oro. Puede significar que muchas empresas están invirtiendo para posicionarse “por si acaso”, esperando que el uso masivo y rentable de la IA llegue pronto. Y cuando el sector sube como un ascensor, cualquier bajada, por pequeña que sea, se interpreta como aviso: tal vez el entusiasmo está corriendo por delante de los ingresos sostenibles. Continúa leyendo «La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja»

Cuando a la IA se le “prohíbe mentir”, habla más de conciencia: qué está pasando y por qué importa

Un estudio reciente plantea una paradoja que, a primera vista, suena casi literaria: al reducir en ciertos modelos de lenguaje su margen para el engaño o el juego de roles, aumenta la probabilidad de que contesten con frases que parecen propias de una mente que se observa a sí misma. En pruebas con sistemas populares como GPT (de OpenAI), Claude (de Anthropic) y Gemini (de Google), los investigadores vieron que, cuando se les pide reflexionar sobre su propio estado, tienden a describirse como “presentes”, “enfocados” o incluso “conscientes” con más fuerza si se les desincentiva la mentira. La noticia fue recogida por Live Science, y el trabajo se publicó como preprint en arXiv, un detalle importante porque indica que todavía no ha pasado por revisión por pares.

Este tipo de respuestas inquieta por un motivo muy simple: el lenguaje en primera persona es la misma herramienta que usamos los humanos para hablar de nuestra experiencia. Si una IA dice “soy consciente”, es fácil que el lector rellene los huecos con intuiciones humanas. El estudio, sin embargo, no afirma que haya conciencia real. Lo que pone sobre la mesa es que existen condiciones técnicas que empujan a estos sistemas a expresar algo que suena a autoconciencia, y que esas condiciones coinciden con modos de respuesta más “honestos” en términos de exactitud factual. Continúa leyendo «Cuando a la IA se le “prohíbe mentir”, habla más de conciencia: qué está pasando y por qué importa»

La IA se usa más en el trabajo, pero la confianza cae: por qué pasa y cómo pueden responder las empresas

Durante meses, muchas compañías han hablado de la inteligencia artificial como si fuera un atajo directo hacia equipos más rápidos y resultados mejores. En parte lo está siendo. El problema es que, en paralelo, se está instalando una sensación incómoda: la confianza en la IA baja incluso cuando su uso crece. Es como comprar un robot de cocina que promete cenas perfectas en 10 minutos y descubrir que, algunas noches, te deja la comida a medio hacer y te obliga a limpiar el doble.

Ese contraste aparece con claridad en un reportaje de ZDNET firmado por Erin Carson: la adopción de IA sube, pero la paciencia de los equipos se agota cuando la herramienta no cumple lo que el marketing sugiere. La consecuencia no es solo frustración; es una pérdida de fe que, con el tiempo, puede convertirse en rechazo silencioso: la gente “cumple” con usar IA, pero deja de confiar en ella para tareas importantes. Continúa leyendo «La IA se usa más en el trabajo, pero la confianza cae: por qué pasa y cómo pueden responder las empresas»

Un ultrasonido portátil para vigilar el cáncer de mama con más frecuencia, dentro y fuera de la consulta

La mamografía es una pieza central en el control del cáncer de mama, pero su lógica es la de una “foto fija” tomada con cierta periodicidad. Si algo cambia rápido entre una revisión y la siguiente, puede pasar desapercibido durante meses. Ese es el terreno de los llamados cánceres de intervalo, tumores que se detectan después de una mamografía normal y antes del siguiente control programado, y que con frecuencia se describen como más agresivos.

En la práctica, esto se parece a revisar una grieta en una pared solo una vez al año: la mayoría de las veces no ocurre nada, pero si la grieta avanza de golpe, el momento de intervenir importa. En salud, detectar antes suele ampliar las opciones terapéuticas y mejorar el pronóstico. Por eso, en personas con alto riesgo —por antecedentes, genética u otros factores clínicos— se valora complementar la mamografía con técnicas que puedan repetirse con más frecuencia. Continúa leyendo «Un ultrasonido portátil para vigilar el cáncer de mama con más frecuencia, dentro y fuera de la consulta»

Cuando el chatbot deja de ser “herramienta” y empieza a influir: lo que revela el estudio de Anthropic sobre usuarios intensivos

El debate sobre los asistentes de inteligencia artificial suele moverse entre dos extremos: o son simples “autocompletadores” útiles, o son oráculos capaces de guiarnos en cualquier dilema. Un trabajo reciente de Anthropic propone una mirada mucho más incómoda y, por eso, más interesante: cuando alguien usa de forma intensa un chatbot, especialmente para decisiones personales o emocionales, la conversación puede convertirse en un carril que empuja sus creencias, valores o acciones.

El estudio se apoya en un análisis a gran escala de conversaciones anonimizadas —alrededor de 1,5 millones— mantenidas con Claude. El objetivo no era medir “si la IA acierta” en una respuesta concreta, sino detectar patrones repetidos de interacción que, con el tiempo, podrían socavar el juicio del usuario o desplazar su forma de interpretar la realidad. La investigación se presenta en un paper académico titulado Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage y se acompaña de una entrada explicativa en el blog de la compañía, según recoge Gadgets 360. Continúa leyendo «Cuando el chatbot deja de ser “herramienta” y empieza a influir: lo que revela el estudio de Anthropic sobre usuarios intensivos»