OpenAI, Anthropic y Google entran en la consulta: así son sus nuevas herramientas de IA en salud

El inicio de 2026 ha traído una señal clara: la IA en salud ya no es una promesa lejana ni un experimento reservado a laboratorios. Tres actores clave del sector —OpenAI, Anthropic y Google— han presentado propuestas orientadas específicamente a la atención sanitaria, con enfoques distintos pero un mismo trasfondo: automatizar tareas delicadas, ayudar a interpretar información clínica y facilitar que pacientes y profesionales lleguen mejor preparados a decisiones importantes.

Según contó ZDNET en un repaso reciente, estas novedades llegan en un contexto contradictorio. Por un lado, existe entusiasmo por lo que la automatización puede agilizar. Por otro, persisten preocupaciones serias sobre privacidad de datos y sobre un problema bien conocido en los chatbots: las alucinaciones, cuando el sistema inventa información con una seguridad que puede resultar peligrosa si alguien la toma como consejo médico. Aun así, la adopción sigue avanzando, especialmente porque mucha gente ya utiliza chatbots generalistas para dudas de síntomas, seguros o tratamientos, incluso sin herramientas específicas diseñadas para ello. Continúa leyendo «OpenAI, Anthropic y Google entran en la consulta: así son sus nuevas herramientas de IA en salud»

Microsoft cierra su biblioteca interna y apuesta por un “aprendizaje con IA”: qué cambia para sus empleados

Durante años, la Microsoft Library ha funcionado como ese armario bien ordenado que muchos equipos agradecen tener cerca: un lugar al que acudir cuando necesitas contexto, una referencia fiable o una lectura larga para entender un tema sin prisas. No era solo una colección de títulos; era una infraestructura silenciosa de aprendizaje y cultura corporativa. Esa etapa se está cerrando.

Según ha contado The Verge, Microsoft está clausurando su biblioteca para empleados —la que se encontraba en el edificio 92 del campus de Redmond— y recortando de forma notable el acceso a publicaciones y servicios informativos que formaban parte del día a día de su plantilla. La empresa justifica el cambio como un paso hacia una “experiencia de aprendizaje moderna impulsada por IA” a través de una plataforma interna llamada Skilling Hub. Continúa leyendo «Microsoft cierra su biblioteca interna y apuesta por un “aprendizaje con IA”: qué cambia para sus empleados»

ChatGPT Go se expande a todo el mundo: qué incluye, cuánto cuesta y cómo encaja frente a Plus y Pro

OpenAI ha anunciado la disponibilidad mundial de ChatGPT Go, un plan de suscripción de bajo coste que nació como prueba en India en agosto de 2025 y que, según la compañía, se extendió después a 170 países antes de dar el salto global. La idea que hay detrás es sencilla de entender si lo comparamos con una tarifa de transporte: no busca ser el abono “premium” para viajes largos y frecuentes, sino el pase que te permite moverte con más libertad que el billete suelto sin pagar lo máximo.

Desde el 16 de enero de 2026, OpenAI asegura que ChatGPT Go empieza a desplegarse “en todas partes” donde ChatGPT está disponible. En Estados Unidos, el precio comunicado es de 8 dólares al mes, con tarifas localizadas en algunos mercados. La fuente de todos estos detalles es el propio comunicado de OpenAI en su apartado de noticias de producto. Continúa leyendo «ChatGPT Go se expande a todo el mundo: qué incluye, cuánto cuesta y cómo encaja frente a Plus y Pro»

ChatGPT se abre a la publicidad y amplía el acceso: qué cambia con Go y cómo promete OpenAI proteger la confianza

OpenAI ha puesto por escrito una idea que lleva tiempo rondando en el sector: si la IA va a convertirse en una herramienta cotidiana, el acceso no puede depender solo de pagar una cuota mensual. En una publicación firmada por Fidji Simo en el blog oficial de OpenAI (16 de enero de 2026), la compañía explica que está preparando pruebas de anuncios en ChatGPT para los niveles Free y ChatGPT Go en Estados Unidos, con el objetivo de reducir límites de uso o evitar que parte de la audiencia tenga que pagar para obtener funciones más capaces.

La lógica se entiende con una metáfora simple: mantener un servicio así es como sostener una biblioteca abierta 24/7 con un bibliotecario que sabe de todo. Puedes financiarlo solo con carnés premium, sí, pero entonces parte de la ciudad se queda fuera. OpenAI quiere sumar un segundo pilar de ingresos —la publicidad— para que esa “biblioteca” aguante más visitantes.

Este movimiento llega acompañado de una ampliación importante: ChatGPT Go, una suscripción de bajo coste que ya se había desplegado en 171 países desde agosto, pasa a estar disponible en Estados Unidos y “en todas partes donde ChatGPT esté disponible”. El precio indicado es de 8 dólares al mes y, según la compañía, incluye acceso ampliado a mensajería, creación de imágenes, subida de archivos y memoria. Continúa leyendo «ChatGPT se abre a la publicidad y amplía el acceso: qué cambia con Go y cómo promete OpenAI proteger la confianza»

Claude Cowork pone una IA “con manos” en tu disco: productividad real, riesgos igual de reales

Claude Cowork es la apuesta de Anthropic por la IA agéntica aplicada a algo muy doméstico y, a la vez, delicadísimo: tu sistema de archivos. No hablamos de un chatbot que te explica cómo ordenar documentos, sino de una herramienta que puede mirar dentro de una carpeta local, interpretar lo que hay y ejecutar acciones como renombrar y reorganizar archivos. Es el salto de “te digo qué hacer” a “lo hago por ti”.

La imagen mental ayuda: hasta ahora, muchas IAs eran como un asesor que te sugiere cómo ordenar el trastero. Cowork se parece más a darle las llaves de casa a ese asesor y decirle: “ordena tú el trastero”. Puede salir genial o puede acabar con la caja de facturas en el contenedor equivocado. Y la responsabilidad, como recordaba el propio David Gewirtz en su prueba para ZDNET, se queda en el usuario. Continúa leyendo «Claude Cowork pone una IA “con manos” en tu disco: productividad real, riesgos igual de reales»

Nvidia acelera su apuesta por el coche autónomo y se acerca al terreno de Tesla

Nvidia suele aparecer en conversaciones sobre chips, tarjetas gráficas y centros de datos, no sobre coches. Por eso llamó la atención que su CEO, Jensen Huang, utilizara CES 2026 en Las Vegas para anunciar que la compañía está acelerando el desarrollo de software y tecnologías para conducción autónoma apoyándose en los modelos de IA llamados Alpamayo. En una feria donde cada marca compite por el titular más llamativo, este movimiento destaca por una razón sencilla: Nvidia no quiere fabricar automóviles, quiere convertirse en la “capa inteligente” que muchos vehículos usarán para ver, decidir y moverse.

La lectura industrial es clara. Tesla ha defendido un enfoque muy cerrado: controla su hardware, su software y el despliegue de sus funciones de Full Self-Driving dentro de su propio ecosistema. Nvidia, en cambio, busca lo contrario: ofrecer una plataforma de IA para automoción que puedan adoptar varias marcas a la vez. La diferencia se parece a lo que ocurrió en los smartphones: unas compañías apostaron por sistemas cerrados, otras por licenciar una base tecnológica y crecer a través de socios. No es una comparación perfecta, pero ayuda a entender por qué el anuncio ha despertado el debate sobre si Nvidia puede terminar compitiendo con Tesla en el terreno de la autonomía, aunque no venda ni un solo coche con su logo. Continúa leyendo «Nvidia acelera su apuesta por el coche autónomo y se acerca al terreno de Tesla»

Cuando insultar a ChatGPT parece “mejorar” las respuestas: lo que revela un estudio y por qué importa

Durante años, a muchos niños se les ha enseñado a hablar con los asistentes de voz con educación: decir “por favor”, “gracias” y mantener un tono amable, casi como si Siri o Alexa fueran un invitado en casa. Esa idea de “modales digitales” parecía fácil de trasladar a los chatbots modernos. Sin embargo, un estudio reciente —todavía sin revisión por pares— sugiere algo contraintuitivo: con el modelo ChatGPT-4o de OpenAI, la precisión de las respuestas podría subir cuando el usuario se expresa con rudeza e incluso con insultos.

El trabajo, comentado por Fortune y difundido por Futurism, plantea una situación tan extraña como reveladora: si cambias el envoltorio emocional de la pregunta, el contenido de la respuesta puede moverse. Y no un poco. Continúa leyendo «Cuando insultar a ChatGPT parece “mejorar” las respuestas: lo que revela un estudio y por qué importa»

OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real

La noticia, en esencia, va de velocidad percibida. OpenAI ha comunicado una alianza con Cerebras para incorporar 750 MW de capacidad orientada a ultra baja latencia dentro de su plataforma, con una integración progresiva y despliegue por tramos hasta 2028. En términos prácticos, se trata de reforzar la parte del sistema que responde a tus solicitudes cuando chateas, pides código, generas una imagen o ejecutas tareas con agentes de IA.

Conviene separar dos ideas que suelen mezclarse: entrenar modelos y servir modelos. El entrenamiento es como escribir el recetario; la inferencia es cocinar cada plato cuando el cliente lo pide. Puedes tener la mejor receta del mundo, pero si la cocina funciona a tirones, el comensal piensa que el restaurante va lento. Aquí el foco está en la cocina, no en el recetario. Continúa leyendo «OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real»

El primer intento serio de “atrapar” un gravitón: cómo funcionaría el detector con helio superfluido

La física moderna convive con una incomodidad famosa: dos teorías extraordinariamente precisas describen la realidad en escalas distintas, pero no encajan del todo. La relatividad general explica la gravedad como la curvatura suave del espacio-tiempo, ideal para planetas, estrellas y galaxias. La mecánica cuántica, en cambio, cuenta el mundo en “paquetes” discretos, con partículas y cuantos que aparecen como monedas indivisibles de energía.

Unificar ambos lenguajes exige una idea concreta: si todo lo demás tiene versión cuántica, la gravedad también debería tenerla. Ahí aparece el protagonista de esta historia: el gravitón, la partícula hipotética que mediaría la interacción gravitatoria, del mismo modo que el fotón “transporta” el electromagnetismo en la formulación cuántica.

Durante décadas, el consenso práctico fue desalentador: aunque la noción de gravitón es atractiva en teoría, detectarlo parecía imposible en un laboratorio. Ahora, un equipo académico ha puesto sobre la mesa un programa experimental que intenta cambiar ese diagnóstico con una estrategia poco habitual: convertir la llegada de un gravitón en una vibración cuántica medible dentro de un sistema macroscópico. Continúa leyendo «El primer intento serio de “atrapar” un gravitón: cómo funcionaría el detector con helio superfluido»

Cómo proteger tus tarjetas de crédito del web skimming al comprar online

La mayoría hemos oído hablar del skimming clásico: el fraude en el que alguien coloca un lector falso en un cajero, una gasolinera o un datáfono para “copiar” los datos de tu tarjeta. Es como si, al introducir la tarjeta, alguien pusiera un papel calco invisible entre tu plástico y la máquina para quedarse con tu número, la fecha y otros detalles.

El problema es que esa misma idea se ha mudado a internet con traje nuevo. El web skimming es la versión digital: en lugar de un dispositivo físico, se usa código malicioso para capturar tu información durante el pago online. Según explicó Lifehacker en un artículo reciente, investigadores han detectado campañas activas que apuntan a grandes proveedores de pago y, por extensión, a compradores comunes. Aquí no hace falta que visites una web “oscura” para estar en riesgo: basta con que un sitio legítimo haya sido comprometido y cargue una trampa en el momento justo, cuando vas a pagar. Continúa leyendo «Cómo proteger tus tarjetas de crédito del web skimming al comprar online»