Meta no se queda quieta en su misión de integrar la inteligencia artificial (IA) en todos los aspectos de nuestras vidas digitales. Durante el evento Meta Connect 2024, la compañía anunció una alianza con Arm, la reconocida empresa de diseño de chips, para desarrollar pequeños modelos de lenguaje (SLM, por sus siglas en inglés) optimizados para dispositivos móviles y edge computing. ¿Te imaginas un smartphone que no solo te escuche, sino que también entienda y anticipe tus necesidades en tiempo real? Con esta asociación, Meta y Arm están un paso más cerca de hacer esto realidad.
¿Qué significa esta colaboración?
Lo más interesante de este proyecto es que Meta no está apostando por los enormes modelos de lenguaje (LLM) que solemos ver en aplicaciones como ChatGPT o los asistentes de voz actuales. En lugar de eso, se centran en modelos más pequeños, que podrían ejecutarse directamente en dispositivos móviles sin la necesidad de enviar los datos a servidores remotos. Esto no solo significa una mayor privacidad para los usuarios, sino también una experiencia más rápida y fluida. ¿Quién no se ha frustrado alguna vez con el retraso que tienen algunos asistentes virtuales al procesar comandos?
Llevando la IA al siguiente nivel
Según Ragavan Srinivasan, vicepresidente de gestión de productos de IA generativa en Meta, “El objetivo es que los modelos de IA sean más intuitivos y puedan interactuar de manera fluida con los dispositivos”. Para lograr esto, necesitan que la IA funcione localmente en los teléfonos, tablets y laptops, o que al menos los servidores estén muy cerca de estos dispositivos, lo que se conoce como edge computing. Esta tecnología permite que el procesamiento de datos se realice en ubicaciones más cercanas al usuario final, disminuyendo la latencia y mejorando la respuesta de la IA.
¿Qué implicaciones tiene esto para los desarrolladores?
En términos sencillos, esta colaboración entre Meta y Arm tiene el potencial de revolucionar la manera en que los desarrolladores crean experiencias de usuario en dispositivos móviles. Con los nuevos modelos SLM, podrán incorporar capacidades avanzadas como asistentes que realicen acciones específicas, editen imágenes en tiempo real o incluso traduzcan contenido sobre la marcha. Todo esto sin depender tanto de la nube, lo cual no solo reduce los costos operativos, sino que también mejora la accesibilidad a estas tecnologías en regiones con conectividad limitada.
¿Por qué Arm?
Es lógico que Meta haya decidido asociarse con Arm. La empresa de chips es conocida por su capacidad de crear diseños de procesadores que son energéticamente eficientes y, al mismo tiempo, capaces de realizar tareas complejas. Además, su enfoque en la arquitectura para móviles encaja perfectamente con la visión de Meta de llevar la IA avanzada a nuestros dispositivos cotidianos.
Imagina poder tener un asistente de voz que no solo entienda tus comandos, sino que sea capaz de predecir tus necesidades, todo sin necesidad de depender de una conexión a internet rápida. Para lograrlo, Arm está trabajando con Meta para desarrollar nuevos chips optimizados que permitan a los modelos SLM procesar información de forma más eficiente, incluso en dispositivos con hardware limitado.
Más allá del texto y la visión por computadora
El uso de IA en smartphones ha sido hasta ahora bastante limitado. Principalmente se usa para la generación de texto, comandos de voz y la visión por computadora (reconocimiento de imágenes). Sin embargo, con esta nueva colaboración, Meta y Arm quieren ir más allá y desarrollar modelos que puedan realizar tareas mucho más complejas. Esto podría incluir la creación de gráficos avanzados, la integración con cámaras para capturar fotos con calidad profesional y la edición de video en tiempo real. ¿Te imaginas un editor de video en tu móvil que aplique efectos complejos sin demoras?
Meta Orion y las gafas inteligentes Ray-Ban
Durante el evento Meta Connect 2024, la compañía también reveló otros avances que se beneficiarán de esta colaboración. Un ejemplo es Meta Orion, sus nuevas gafas de realidad aumentada con pantallas holográficas, que podrían aprovechar los modelos de IA desarrollados con Arm para ofrecer experiencias inmersivas sin precedentes. Asimismo, las Ray-Ban Smart Glasses, que ya cuentan con algunas funciones impulsadas por IA, podrían incorporar estos modelos SLM para mejorar sus capacidades en tiempo real, permitiendo a los usuarios interactuar con el entorno de manera más natural.
¿Qué podemos esperar?
Aunque todavía no hay detalles específicos sobre qué nuevos productos lanzarán Meta y Arm, es evidente que la dirección que están tomando apunta a convertir nuestros dispositivos cotidianos en asistentes inteligentes mucho más potentes y útiles. Los modelos SLM de Meta, en colaboración con Arm, podrían transformar la manera en que usamos nuestros smartphones y abrir nuevas posibilidades para aplicaciones de IA en el futuro.
Si quieres estar al tanto de las últimas novedades en tecnología y cómo estas alianzas impactan nuestro día a día, no te olvides de seguir nuestras actualizaciones en WWWhatsnew.com. Estaremos atentos a cómo se desarrollan estos proyectos y qué significan para los usuarios y desarrolladores por igual.