OpenAI pone números a la salud en ChatGPT: 40 millones de personas ya lo usan para dudas médicas

Publicado el

Diagnóstico médico con IA análisis futurista de la lengua en arte urbano minimalista

OpenAI ha compartido con el medio Axios una cifra que ayuda a dimensionar un fenómeno que muchos intuíamos pero pocos podían cuantificar: más de 40 millones de usuarios en todo el mundo han preguntado a ChatGPT cuestiones relacionadas con salud. El dato, recogido también por Gadgets 360 (NDTV), no habla de una curiosidad puntual, sino de un hábito que se está normalizando: consultar a una IA para entender síntomas, términos clínicos o trámites sanitarios.

Según la misma información, esos intercambios suponen más del 5% de todos los mensajes que recibe ChatGPT a nivel global. Traducido a una escena cotidiana, es como si en una cafetería muy concurrida una de cada veinte conversaciones fuera sobre “qué significa este análisis”, “por qué me duele aquí” o “cómo funciona mi cobertura”.

Qué pregunta la gente: el laberinto de los seguros de salud

Si hay un tema que destaca por volumen y por complejidad, es el de los seguros de salud. OpenAI asegura que entre 1,6 y 1,9 millones de mensajes por semana están vinculados a dudas sobre pólizas, facturación, reclamaciones y cobertura. No es difícil entender por qué: comparar planes, interpretar copagos, descifrar códigos de facturación o saber qué entra y qué no entra en una cobertura se parece a leer un manual de instrucciones escrito con letra diminuta.

En ese contexto, ChatGPT funciona para muchas personas como un traductor de “idioma asegurador” a lenguaje normal. La promesa implícita es tentadora: explicaciones rápidas, sin vergüenza por “preguntar algo básico”, con capacidad para pedir ejemplos y repreguntar. Es el equivalente a tener a alguien al lado que te diga “vale, esa frase significa esto y estas son las preguntas que deberías hacer”.

Fuera del horario de consulta: la IA como “guardia” informativa

Otro dato significativo es el momento del día en el que ocurren estas conversaciones: OpenAI indica que 7 de cada 10 chats de salud se producen fuera del horario habitual de las clínicas. Esto encaja con una realidad muy humana: los síntomas no respetan la agenda, y la incertidumbre suele crecer por la noche, en fines de semana o cuando no hay nadie al otro lado del teléfono.

Para mucha gente, el chatbot se convierte en un primer paso para ordenar la cabeza. No sustituye una consulta médica, pero puede ayudar a poner nombre a lo que se está sintiendo, a comprender qué es urgente y qué puede esperar, o a preparar preguntas para el profesional sanitario. Es parecido a encender la luz del pasillo cuando oyes un ruido: no resuelve el problema por sí solo, pero reduce el miedo a caminar a oscuras.

El peso de lo rural: cuando la accesibilidad no es una idea abstracta

OpenAI también señala que usuarios de comunidades rurales desatendidas envían cerca de 600.000 mensajes semanales sobre temas sanitarios. Es una cifra que sugiere un patrón: allí donde la infraestructura médica queda lejos, cuesta conseguir cita o faltan especialistas, las personas buscan alternativas para informarse.

Aquí conviene ser muy cuidadosos con la interpretación. Que una IA sea consultada con frecuencia no significa que el sistema sanitario esté “cubierto” por una pantalla. Significa que hay un hueco, y que alguien lo está rellenando con la mejor herramienta disponible en ese momento. Para quien vive a una hora del centro de salud, tener un recurso que explique un término o aclare un proceso administrativo puede ser la diferencia entre posponer un trámite y afrontarlo con un poco más de seguridad.

Qué dice la encuesta: síntomas, términos médicos y tratamientos

En paralelo, OpenAI compartió con Axios resultados de una encuesta realizada en diciembre de 2025 a 1.042 adultos en Estados Unidos. Los porcentajes ayudan a dibujar para qué se está usando el chatbot cuando el tema es salud: un 55% afirma recurrir a ChatGPT para revisar o explorar síntomas físicos, un 48% lo utiliza para entender términos e instrucciones médicas, y un 44% declara apoyarse en la IA para aprender sobre opciones de tratamiento.

Estos tres usos tienen un hilo común: la gente intenta convertir información técnica en decisiones comprensibles. Un informe clínico puede sentirse como una receta en otro idioma; la IA, cuando funciona bien, actúa como ese amigo paciente que te explica qué significa “benigno”, por qué una indicación pone “cada 8 horas” y qué preguntas conviene hacer antes de aceptar o descartar una opción.

Por qué ocurre: búsqueda de claridad y fricción con la información

Los datos apuntan a dos fricciones conocidas. La primera es el acceso a información médica clara y contextualizada. Buscar en la web puede servir, pero obliga a acertar con palabras clave, filtrar resultados, distinguir fuentes fiables y navegar textos llenos de tecnicismos. La segunda fricción es el acceso a profesionales: aunque haya buenos sistemas sanitarios, la disponibilidad real depende de tiempos de espera, horarios, movilidad y recursos.

En ese panorama, la IA se está usando como una herramienta de alfabetización sanitaria: aclarar conceptos, preparar conversaciones y entender procesos. Es importante subrayarlo: el valor está en la comprensión, no en el diagnóstico. La línea entre “entender” y “decidir” se vuelve fina cuando hay miedo o dolor, y ahí es donde el diseño del producto y el criterio del usuario importan más que nunca.

GPT-5 y la apuesta por el rendimiento en salud

OpenAI ya había indicado, en el lanzamiento de GPT-5 en agosto de 2025, que uno de sus focos era mejorar el desempeño en temas de salud. La razón es evidente: no es un vertical cualquiera. Un error al explicar una dosis, una mala interpretación de una urgencia o una recomendación demasiado segura puede tener consecuencias reales.

Que OpenAI hable de “mejora continua” en este ámbito sugiere un objetivo doble: reducir fallos y construir respuestas con mejor criterio de seguridad, con más contexto y con más insistencia en derivar a atención profesional cuando toca.

El elefante en la habitación: alucinaciones y confianza

En 2026 sigue presente el problema de las alucinaciones: respuestas que suenan convincentes pero son falsas o imprecisas. En salud, ese riesgo pesa como una piedra. Un chatbot puede mezclar síntomas, confundir interacciones farmacológicas o generalizar situaciones que dependen de edad, antecedentes y contexto.

Por eso, usar ChatGPT para salud exige hábitos parecidos a los que aplicamos cuando alguien nos da un consejo bienintencionado: comprobar, contrastar, y reconocer límites. Si la respuesta no menciona señales de alarma, si no sugiere acudir a un profesional ante síntomas graves, si afirma certezas absolutas en temas complejos, conviene frenar. La IA puede ser una linterna, no un mapa completo.

La pregunta de fondo no es solo cuántas personas usan estos sistemas, sino cómo se construye una relación segura con ellos. Las cifras de OpenAI muestran una demanda enorme; el reto es que esa demanda no empuje a confiar más de la cuenta en una herramienta que, aunque útil, todavía puede equivocarse.