LiteRT: el nuevo marco universal de IA en el dispositivo que Google quiere convertir en estándar

Durante años, TensorFlow Lite fue la herramienta “de confianza” para llevar modelos de aprendizaje automático a móviles, relojes y otros dispositivos. Funcionaba especialmente bien para el machine learning clásico: reconocimiento de imágenes, clasificación, detección de objetos o pequeñas redes que podían vivir sin demasiadas exigencias de cómputo. El problema es que la IA generativa y los modelos modernos han cambiado el listón: ya no basta con “que corra”, ahora importa que responda rápido, que consuma menos energía y que aproveche el hardware especializado que ya traen muchos chips.

Ahí es donde entra LiteRT, la evolución del stack de Google para inferencia en el borde. Según explicó Google en el blog de Google for Developers (28 de enero de 2026), la compañía empezó a presentar esta transición en 2024 y enseñó un adelanto más ambicioso en Google I/O 2025: un runtime diseñado para exprimir aceleración avanzada. La novedad ahora es que esa aceleración “graduó” y forma parte del stack de producción de LiteRT, disponible para desarrolladores. Continúa leyendo «LiteRT: el nuevo marco universal de IA en el dispositivo que Google quiere convertir en estándar»