OpenEvidence: qué es, por qué ha desaparecido en Europa y qué pueden usar ahora los médicos europeos

El 30 de abril de 2026 OpenEvidence cerró el grifo en la Unión Europea y el Reino Unido. Sin previo aviso suficiente, sin un periodo de transición digno de ese nombre y dejando colgados a cientos de miles de médicos que la usaban a diario para resolver dudas clínicas. La empresa, valorada en 12.000 millones de dólares hace apenas tres meses y considerada el «Google de los médicos» en Estados Unidos, ha justificado su salida con tres palabras: «incertidumbre regulatoria europea». Detrás hay algo más jugoso: el inminente despliegue completo de la EU AI Act el 2 de agosto de 2026 y una clasificación que convierte a OpenEvidence, técnicamente, en un sistema de IA de «alto riesgo».

Continúa leyendo «OpenEvidence: qué es, por qué ha desaparecido en Europa y qué pueden usar ahora los médicos europeos»

¿Es seguro confiarle tus exámenes médicos a Grok, la IA de Elon Musk?

Elon Musk, a través de su chatbot de IA llamado Grok, ahora sugiere que los usuarios suban sus imágenes médicas como radiografías, PET y resonancias magnéticas para su análisis. Esta recomendación ha despertado tanto curiosidad como preocupación, sobre todo cuando se trata de un tema tan delicado como la privacidad médica y la precisión de diagnósticos.

Continúa leyendo «¿Es seguro confiarle tus exámenes médicos a Grok, la IA de Elon Musk?»

Los modelos de IA para imágenes médicas no son imparciales

Los modelos de inteligencia artificial (IA) se han convertido en herramientas cruciales en el diagnóstico médico, especialmente en el análisis de imágenes como radiografías. Sin embargo, recientes investigaciones del MIT han revelado que estos modelos no siempre son equitativos en su desempeño, mostrando brechas de precisión en diferentes grupos demográficos. Aquí exploramos los hallazgos de este estudio y sus implicaciones.

Continúa leyendo «Los modelos de IA para imágenes médicas no son imparciales»