LiteRT: La Evolución de TensorFlow Lite en la Inteligencia Artificial en Dispositivos

Publicado el

lite rt

LiteRT es el nuevo nombre de TensorFlow Lite (TFLite), pero no te confundas, sigue siendo ese confiable y de alto rendimiento runtime para IA en dispositivos que conoces, solo que con una visión más amplia y ambiciosa.

Desde su debut en 2017, TFLite ha permitido a los desarrolladores llevar experiencias con machine learning a más de 100,000 aplicaciones en 2.7 mil millones de dispositivos. Ahora, TFLite ha evolucionado para ser compatible con modelos creados no solo en TensorFlow, sino también en PyTorch, JAX y Keras, manteniendo siempre el mejor rendimiento. Y así es como nace LiteRT, capturando esta nueva visión multiframework: permitir a los desarrolladores empezar con cualquier marco popular y ejecutar su modelo en el dispositivo con un rendimiento excepcional.

¿Qué hace a LiteRT tan especial?

Si alguna vez has usado TensorFlow Lite para tus proyectos de machine learning, sabes lo frustrante que puede ser tratar de optimizar modelos para que funcionen bien en diferentes dispositivos. Aquí es donde LiteRT realmente brilla. Su objetivo es minimizar la fricción para los desarrolladores, permitiéndote enfocarte en lo que realmente importa: construir modelos innovadores. Imagina que estás trabajando en una app de reconocimiento de imágenes para un móvil. En lugar de perder tiempo ajustando tu modelo para cada tipo de dispositivo, LiteRT te permite hacer esto automáticamente gracias a sus herramientas de conversión y optimización de modelos.

Compatibilidad con múltiples frameworks

Antes, si querías usar TensorFlow Lite, tenías que trabajar exclusivamente con TensorFlow. Pero hoy, LiteRT admite modelos de PyTorch, JAX, y Keras, lo que amplía significativamente sus posibilidades. Esto significa que, sin importar con qué herramienta hayas creado tu modelo, puedes confiar en LiteRT para hacerlo funcionar en dispositivos Android, iOS o incluso dispositivos integrados.

En WWWhatsnew.com, hemos visto cómo esta flexibilidad permite a los desarrolladores adaptar más fácilmente sus proyectos a diferentes plataformas, sin necesidad de reescribir código desde cero.

¿Qué cambios implica este nuevo nombre?

Por ahora, la mayoría de los cambios se centran en la marca y no en la funcionalidad. El cambio de nombre a LiteRT busca reflejar la ampliación de su propósito y su integración con múltiples frameworks. Las aplicaciones que ya utilizan TensorFlow Lite no se verán afectadas, por lo que no tienes que preocuparte por interrumpir tus proyectos en curso. Eso sí, los desarrolladores tendrán que actualizar algunas dependencias, como en Maven, PyPi o Cocoapods, para alinearse con la nueva denominación.

¿Cómo afecta esto a los usuarios de Google Play Services? No necesitas hacer nada por ahora. Si usas TensorFlow Lite a través de Google Play Services, todo seguirá funcionando como siempre. Para aquellos que compilan desde el código fuente, es mejor continuar usando el repositorio de TensorFlow hasta que el código se haya movido completamente al nuevo repositorio de LiteRT a finales de este año.

¿Qué más viene con LiteRT?

Google está prometiendo actualizaciones significativas para LiteRT en el futuro. Con su renovado enfoque en modelos clásicos, LLMs (Large Language Models), y modelos de difusión, junto con la aceleración de GPU y NPU en todas las plataformas, LiteRT está claramente diseñado para liderar el campo de la inteligencia artificial en dispositivos.

Uno de los puntos que me parece más interesante es el uso de LiteRT para llevar modelos más complejos y grandes a dispositivos móviles. Imagina tener la capacidad de ejecutar modelos de lenguaje como los de GPT en tu teléfono sin necesidad de conectarte a un servidor externo. Esto no solo mejora la privacidad, sino también la velocidad de respuesta.

Preguntas frecuentes sobre LiteRT

  • ¿Qué pasa con la biblioteca de soporte de TensorFlow Lite? Seguirá existiendo en el repositorio de TensorFlow por ahora, pero Google anima a los desarrolladores a usar MediaPipe Tasks para futuros desarrollos.
  • ¿Cambiará el formato de archivo .tflite? No habrá cambios en la extensión o el formato del archivo. Las herramientas de conversión seguirán generando archivos flatbuffer .tflite.
  • ¿Se afectarán las aplicaciones en producción? No, las aplicaciones que ya han desplegado TensorFlow Lite seguirán funcionando normalmente, incluyendo aquellas que acceden a TensorFlow Lite a través de Google Play Services.

El cambio a LiteRT marca una evolución emocionante en el ecosistema de la inteligencia artificial en dispositivos. No solo abre nuevas posibilidades para los desarrolladores, sino que también asegura que, sin importar el framework con el que estés trabajando, siempre tendrás acceso a herramientas de alto rendimiento para implementar tus modelos de machine learning.