El inicio de 2026 ha traído una señal clara: la IA en salud ya no es una promesa lejana ni un experimento reservado a laboratorios. Tres actores clave del sector —OpenAI, Anthropic y Google— han presentado propuestas orientadas específicamente a la atención sanitaria, con enfoques distintos pero un mismo trasfondo: automatizar tareas delicadas, ayudar a interpretar información clínica y facilitar que pacientes y profesionales lleguen mejor preparados a decisiones importantes.
Según contó ZDNET en un repaso reciente, estas novedades llegan en un contexto contradictorio. Por un lado, existe entusiasmo por lo que la automatización puede agilizar. Por otro, persisten preocupaciones serias sobre privacidad de datos y sobre un problema bien conocido en los chatbots: las alucinaciones, cuando el sistema inventa información con una seguridad que puede resultar peligrosa si alguien la toma como consejo médico. Aun así, la adopción sigue avanzando, especialmente porque mucha gente ya utiliza chatbots generalistas para dudas de síntomas, seguros o tratamientos, incluso sin herramientas específicas diseñadas para ello.
ChatGPT Health: el “cajón ordenado” para tu información sanitaria
OpenAI ha presentado ChatGPT Health como una función dentro de ChatGPT que permite subir registros de salud provenientes de aplicaciones como Apple Health y Function, con la promesa de ofrecer orientación personalizada. La idea se parece a llevar todos tus papeles médicos —analíticas, métricas de actividad, notas de evolución— a un archivador que, en vez de limitarse a guardarlos, también te ayuda a entenderlos y a convertirlos en preguntas útiles para tu médico.
OpenAI explicó en una publicación corporativa que el desarrollo se hizo en colaboración con médicos para ofrecer información “clara y útil”, y que el objetivo es apoyar, no sustituir, la atención clínica. Esta distinción no es un matiz menor: si pensamos en la herramienta como un “copiloto”, el conductor sigue siendo el profesional sanitario y el paciente, no el modelo.
En términos de disponibilidad, la información compartida por medios como Axios apuntaba a un despliegue progresivo, comenzando con un grupo pequeño de usuarios y ampliándose después. Ese enfoque escalonado tiene sentido cuando se trabaja con algo tan sensible como un historial médico: no se trata solo de que funcione, sino de que lo haga con consistencia, y de que las barreras de seguridad estén bien probadas.
Un detalle relevante es cómo OpenAI plantea la separación entre espacios de conversación. La compañía ha indicado que las charlas de salud se mantienen dentro de una sección específica y que, aunque el sistema pueda usar datos contextuales de otros chats en ciertos casos, las conversaciones sanitarias no se “mezclan” para temas ajenos. Dicho de forma cotidiana: es como tener una libreta para el gimnasio y otra para el trabajo; si abres la del gimnasio, no debería empezar a anotar ahí tus pendientes laborales por accidente.
Claude for Healthcare: de entender resultados a acelerar trámites
Pocos días después, Anthropic presentó Claude for Healthcare, inicialmente disponible para suscriptores Pro y Max en Estados Unidos. En la práctica, el punto fuerte aquí son los conectores integrados a apps de salud, que permiten cargar datos y pedirle al modelo que los ordene, explique y detecte patrones.
Anthropic ha descrito usos muy concretos: resumir el historial, traducir resultados de pruebas a un lenguaje comprensible, encontrar tendencias en métricas de actividad y salud, y preparar preguntas para la consulta médica. Esto último puede sonar simple, pero suele ser la diferencia entre una visita que se siente confusa y otra en la que sales con un plan claro. Muchas personas llegan al médico con el equivalente mental a un cajón lleno de cables enredados; una herramienta que “peina” ese enredo y lo convierte en una lista mental de asuntos prioritarios puede mejorar la conversación clínica.
La propuesta de Anthropic también incluye un componente orientado a organizaciones: pagadores y proveedores. Aquí aparece un término poco glamuroso pero crucial en muchos sistemas sanitarios: la autorización previa. Es el proceso por el cual un médico o centro confirma con la aseguradora si un tratamiento, prueba o medicación estará cubierto. Es un engranaje administrativo que a menudo consume tiempo y recursos. Anthropic plantea que Claude for Healthcare puede ayudar a acelerar ese flujo, reduciendo fricción para profesionales y pacientes.
En cuanto al acceso empresarial, la compañía lo vincula a Claude for Enterprise y a su plataforma de desarrollo. Es decir, no se limita al usuario final: también apunta a integrarse en procesos clínicos y administrativos.
MedGemma 1.5: la pieza para construir, no una app para el paciente
Google ha seguido otra estrategia. En lugar de lanzar un asistente de salud para el consumidor, ha anunciado MedGemma 1.5, un modelo de la familia MedGemma diseñado para que desarrolladores creen aplicaciones capaces de analizar texto médico e imágenes clínicas. Si las propuestas de OpenAI y Anthropic se parecen a “abrir una ventanilla” directa para pacientes, la de Google es más bien fabricar la maquinaria que irá detrás de muchas ventanillas.
La compañía lo ha planteado como un recurso disponible para desarrolladores a través de repositorios y entornos de IA como Hugging Face y Vertex AI. Eso significa que su impacto podría ser menos visible para el público general al principio, pero potencialmente muy amplio: podría acabar integrado en apps hospitalarias, herramientas de apoyo a radiólogos, sistemas de triaje, plataformas de investigación o soluciones de documentación clínica, dependiendo de cómo lo adopten terceros.
Hay un matiz importante: que sea “fundacional” no equivale a que sea “listo para clínica” sin más. En salud, el salto de un modelo a un producto validado es como pasar de tener un buen motor a tener un coche homologado para carretera: hace falta diseño, pruebas, límites, supervisión y, a menudo, validación regulatoria según el caso de uso.
El elefante en la habitación: alucinaciones y privacidad de datos
La gran promesa de estas herramientas convive con riesgos conocidos. El primero es la tendencia a las alucinaciones. En un entorno de entretenimiento o productividad, un error puede ser molesto. En salud, puede cambiar una decisión sobre medicación, demorar una visita urgente o generar una falsa tranquilidad.
Por eso tanto OpenAI como Anthropic han acompañado sus anuncios con advertencias explícitas: sus funciones no deben considerarse un reemplazo del médico. En la práctica, el uso más seguro se parece a esto: “Ayúdame a entender mi analítica y a preparar preguntas”, más que “Dime qué diagnóstico tengo”. Como cuando usas un mapa antes de salir de casa: te orienta, pero no sustituye mirar la carretera.
El segundo riesgo es la privacidad de datos. Subir registros médicos a un sistema de IA implica confiar en cómo se almacenan, procesan y protegen. Aquí ambas compañías han puesto el foco en garantías: han afirmado que los datos de salud no se usarán para entrenar modelos futuros y que existen controles para decidir qué se comparte. En el caso de Anthropic, se destaca que el intercambio puede estar desactivado por defecto y que el usuario controla qué datos se conectan.
Aun con esas promesas, conviene mantener una mentalidad práctica: revisar ajustes, entender permisos y asumir que, cuanto más sensible es el dato, más importa minimizar la exposición. No hace falta ser paranoico; basta con ser metódico, como cuando eliges qué documentos guardas en una nube y cuáles prefieres cifrar o mantener fuera.
Qué cambia para pacientes, médicos y aseguradoras
Para pacientes, la ventaja inmediata es la traducción. La jerga clínica puede sentirse como leer instrucciones de un electrodoméstico en otro idioma. Un asistente que reescribe resultados en lenguaje llano y te ayuda a detectar qué preguntas hacer puede mejorar la adherencia al tratamiento y reducir ansiedad por malentendidos.
Para médicos y centros, el potencial está en el tiempo. Si herramientas como Claude for Healthcare alivian parte de la carga administrativa —por ejemplo, en autorización previa—, el beneficio no es solo económico; es también clínico, porque libera minutos que pueden ir a escuchar y examinar, no a pelear con formularios.
Para aseguradoras y pagadores, la automatización promete procesos más consistentes, aunque también abre debates sobre transparencia: si una IA ayuda a decidir priorizaciones o coberturas, el criterio y la auditabilidad se vuelven críticos.
Lo que conviene vigilar en 2026
Estas propuestas marcan dirección, pero el resultado real dependerá de cómo se usen y de qué salvaguardas se impongan. Habrá que observar tres cosas: si los productos incorporan verificaciones sólidas para reducir alucinaciones, cómo se implementan políticas de privacidad de datos de forma verificable, y si el sector avanza hacia estándares y supervisión que pongan límites claros cuando el uso pase de “orientación” a “decisión clínica”.
La sensación general es que estamos entrando en una etapa en la que la IA no será una novedad puntual en salud, sino una capa que se integra poco a poco en el día a día. Como un buen termómetro digital: no cura nada por sí solo, pero cambia la conversación porque hace la información más accesible y accionable.
