Chips inspirados en el cerebro: así se están acercando las narices electrónicas al olfato humano

El olfato humano ha sido durante décadas una fuente de inspiración para los científicos que buscan replicar su funcionamiento en sistemas artificiales. Aunque no es el más agudo del reino animal, el ser humano puede detectar más de un billón de olores distintos, según investigaciones recientes. Esta habilidad no solo se basa en sensores biológicos (los receptores olfativos), sino también en la manera en que el cerebro procesa y da sentido a esas señales.

Replicar ese mecanismo complejo en una máquina ha sido uno de los retos más persistentes en el desarrollo de las llamadas narices electrónicas, utilizadas en ámbitos tan variados como la seguridad, la detección de enfermedades o el control de calidad alimentario. Sin embargo, los sistemas tradicionales se han quedado cortos frente a la capacidad adaptativa y de aprendizaje del ser humano. Continúa leyendo «Chips inspirados en el cerebro: así se están acercando las narices electrónicas al olfato humano»

La inteligencia artificial en la medicina: entre el alivio y el riesgo de perder el alma del cuidado

La promesa de la inteligencia artificial en la salud ha llegado cargada de expectativas. En muchas clínicas de Estados Unidos, ya se utilizan herramientas de IA para transcribir conversaciones, sugerir diagnósticos e incluso ofrecer códigos de facturación. Este tipo de sistemas se integran en tiempo real durante la consulta, funcionando como asistentes digitales que capturan lo que dice el paciente y lo transforman en un resumen clínico aparentemente ordenado y preciso.

Sin embargo, lo que estos modelos no pueden detectar es la inflexión en la voz cuando alguien habla con miedo, la pausa antes de mencionar un recuerdo doloroso o la mirada que evita el contacto por vergüenza. Cuando los médicos confían en que la tecnología está «escuchando» por ellos, el riego de desconexión emocional es real. Lo no dicho, lo gestual y lo implícito quedan fuera del registro, y eso implica una pérdida considerable de información clínica y humana. Continúa leyendo «La inteligencia artificial en la medicina: entre el alivio y el riesgo de perder el alma del cuidado»

Un cometa peculiar se acerca: lo que sabemos de C/2025 V1 (Borisov)

El cosmos siempre guarda sorpresas, y una de las más recientes es la aparición de C/2025 V1 (Borisov), un cometa descubierto el pasado 2 de noviembre por el astrónomo aficionado Gennadiy Borisov desde Crimea. Este hallazgo ha generado interés no solo por la cercanía del cometa a la Tierra, sino también por las comparaciones que ha suscitado con el objeto interestelar 3I/ATLAS, aunque las investigaciones ya han dejado claro que no están relacionados.

C/2025 V1 se encuentra en pleno viaje hacia su perihelio, es decir, el punto más cercano al Sol. Este paso ocurrirá el 16 de noviembre, poco después de haber alcanzado su distancia mínima respecto a la Tierra el día 11 del mismo mes, a unos 103 millones de kilómetros de nosotros. Aunque no es una distancia crítica, sí es lo suficientemente próxima como para permitir observaciones astronómicas relevantes. Continúa leyendo «Un cometa peculiar se acerca: lo que sabemos de C/2025 V1 (Borisov)»

Google presenta Code Wiki: una nueva forma de comprender el código fuente

Uno de los mayores retos en el desarrollo de software no está en escribir nuevas líneas de código, sino en entender el código que ya existe. Esta actividad, muchas veces subestimada, consume gran parte del tiempo de los equipos de desarrollo, especialmente cuando se trata de grandes proyectos o de código heredado del que ya no quedan autores disponibles. Google quiere eliminar este cuello de botella con Code Wiki, una plataforma diseñada para mantener una documentación estructurada, viva y actualizada de los repositorios. Continúa leyendo «Google presenta Code Wiki: una nueva forma de comprender el código fuente»

NotebookLM se fortalece con Deep Research y nuevos formatos de archivo

El mundo de la investigación digital está recibiendo un impulso importante con la actualización de NotebookLM, la herramienta de investigación impulsada por inteligencia artificial de Google. Esta vez, la novedad se centra en una función llamada Deep Research, un asistente que automatiza tareas complejas de búsqueda y análisis, ayudando a construir una base de conocimiento completa sin salir del flujo de trabajo. Además, la plataforma amplía el abanico de formatos que puedes usar como fuente, incluyendo hojas de cálculo, documentos de Word, imágenes y archivos de Google Drive. Continúa leyendo «NotebookLM se fortalece con Deep Research y nuevos formatos de archivo»

Parallel Web Systems apuesta por una web construida para la inteligencia artificial

La empresa Parallel Web Systems ha dado un paso significativo en la transformación del ecosistema digital con el anuncio de una ronda de financiación Serie A por 100 millones de dólares. Este impulso económico, que eleva su valor a 740 millones, tiene un objetivo singular: crear una web pensada no para humanos, sino para su «segundo usuario»: la inteligencia artificial. Continúa leyendo «Parallel Web Systems apuesta por una web construida para la inteligencia artificial»

Proyecto Suncatcher: computación espacial con inteligencia artificial

Google ha dado un nuevo paso en su conocida estrategia de moonshots, esos proyectos de investigación que buscan resolver problemas aparentemente imposibles. Esta vez, la propuesta se aleja de la Tierra para mirar hacia el espacio: Project Suncatcher. El objetivo es tan ambicioso como futurista: escalar la computación de inteligencia artificial más allá de la atmósfera terrestre, utilizando satélites alimentados por energía solar para ejecutar modelos de machine learning con chips TPU.

La idea central parte de una pregunta provocadora: ¿qué podría lograr la inteligencia artificial si se libera de las limitaciones físicas y energéticas de la Tierra? A partir de esta reflexión, el equipo de Google Research plantea un escenario donde una constelación de satélites interconectados, impulsados por la energía del Sol, funcione como una plataforma distribuida de computación masiva. En ese entorno, la IA podría operar con mayor eficiencia, sin las restricciones de refrigeración, espacio y consumo que enfrentan los centros de datos en nuestro planeta. Continúa leyendo «Proyecto Suncatcher: computación espacial con inteligencia artificial»

Un salto cuántico en la detección de señales espaciales gracias a la IA

Detectar señales provenientes del espacio ha sido, durante décadas, un proceso que exige mucha paciencia, enormes volúmenes de datos y un trabajo meticuloso para separar el ruido de lo que podría ser una señal significativa. Ahora, un desarrollo impulsado por la iniciativa Breakthrough Listen, en colaboración con NVIDIA y el uso del Allen Telescope Array (ATA) del SETI Institute, ha marcado un antes y un después en esta búsqueda: una inteligencia artificial capaz de procesar señales 600 veces más rápido que los métodos actuales. Continúa leyendo «Un salto cuántico en la detección de señales espaciales gracias a la IA»

NASA y Nvidia: Cómo el deep learning impulsa una nueva era en el descubrimiento científico

Cuando en 2003 la NASA buscaba una simulación fotorrealista de Marte, acudió a Nvidia, una empresa entonces centrada en tarjetas gráficas para videojuegos. Ese encuentro marcó el comienzo de una relación transformadora que, dos décadas después, está redefiniendo los límites del conocimiento científico gracias al deep learning.

La clave del cambio llegó en 2006, cuando Nvidia lanzó CUDA, una plataforma de computación paralela que permitió usar las GPU para tareas científicas. Este paso abrió la puerta a una nueva era: la potencia de procesamiento pensada para crear mundos virtuales ahora podía aplicarse a analizar grandes volúmenes de datos reales. Continúa leyendo «NASA y Nvidia: Cómo el deep learning impulsa una nueva era en el descubrimiento científico»

Baidu lanza un modelo multimodal de código abierto que desafía a los gigantes de la IA

Baidu, el gigante tecnológico chino conocido por su motor de búsqueda, acaba de presentar ERNIE-4.5-VL-28B-A3B-Thinking, un modelo de inteligencia artificial multimodal que busca competir directamente con desarrollos avanzados como GPT-5 de OpenAI y Gemini 2.5 Pro de Google. La propuesta sorprende no solo por sus capacidades, sino también por su eficiencia computacional, ya que activa solo 3.000 millones de parámetros durante la inferencia, pese a contar con un total de 28.000 millones.

Este tipo de arquitectura, conocida como Mixture-of-Experts (MoE), permite que solo una fracción del modelo se active en cada tarea, reduciendo el consumo de recursos y haciéndolo viable para empresas que no cuentan con infraestructuras de computación avanzadas. Baidu asegura que su modelo puede funcionar con una sola GPU de 80 GB, lo que representa una alternativa accesible para organizaciones medianas. Continúa leyendo «Baidu lanza un modelo multimodal de código abierto que desafía a los gigantes de la IA»