Meta continúa afinando sus gafas inteligentes al incorporar funciones que, además de entretener, buscan resolver situaciones cotidianas. En su reciente actualización de software (versión 21), la compañía ha integrado mejoras pensadas tanto para ambientes ruidosos como para una experiencia musical más interactiva. Esta nueva versión estará primero disponible para quienes formen parte del programa Early Access en EE. UU. y Canadá, y posteriormente llegará al público general.
Gafas que ayudan a escuchar mejor en medio del ruido
Una de las funciones más esperadas es la llamada «enfoque de conversación», pensada para quienes necesitan escuchar con claridad a otra persona en lugares donde el ruido de fondo suele entorpecer la comunicación. Esta herramienta se apoya en los altavoces de oído abierto de las gafas para amplificar la voz de la persona con la que se está hablando.
Imaginemos que estamos en un restaurante lleno de gente o en una estación de tren: es común tener que pedir que repitan las frases varias veces. Las nuevas gafas de Meta permiten aumentar o reducir la amplificación deslizando el dedo por la patilla derecha o configurándolo desde la app correspondiente, según el contexto ambiental.
Esta función, presentada inicialmente en el evento Connect de Meta, recuerda a herramientas similares como la Conversation Boost de los AirPods de Apple, aunque en este caso la integración se realiza desde un accesorio que combina moda y tecnología. Cabe destacar que Apple ha dado pasos importantes en este campo, incorporando incluso capacidades que se acercan a las de audífonos clínicos en los AirPods Pro.
Meta no busca competir directamente con dispositivos médicos, pero sí posiciona sus gafas como una ayuda funcional para quienes se enfrentan ocasionalmente a entornos auditivos complicados. Esta iniciativa también refleja un creciente interés de la industria tecnológica por abordar necesidades de accesibilidad mediante soluciones de consumo masivo.
Spotify como extensión visual del entorno
La otra novedad incluida en la actualización tiene un enfoque más lúdico. Las gafas ahora permiten utilizar Spotify Tap para reproducir música relacionada con lo que el usuario está viendo. Por ejemplo, si se observa la portada de un disco, las gafas podrían comenzar a sonar con una canción del artista correspondiente. O si se está frente a un árbol de Navidad con regalos, podría empezar a sonar un villancico clásico.
Aunque esta característica puede parecer un capricho tecnológico, ilustra el interés de Meta por explorar nuevas formas de vincular la visión con acciones digitales. No se trata simplemente de reconocer objetos, sino de traducir lo que el usuario ve en una experiencia personalizada y contextual.
Este tipo de interacción sensorial apunta a un futuro donde los dispositivos no solo nos muestran información, sino que reaccionan al entorno de manera proactiva, acompañando nuestras emociones o intenciones sin necesidad de comandos complejos.
Disponibilidad y acceso limitado inicial
Por ahora, las nuevas funciones están limitadas a las gafas inteligentes Ray-Ban Meta y Oakley Meta HSTN, y solo en los mercados de Estados Unidos y Canadá. Sin embargo, la funcionalidad de Spotify está disponible en más países donde se habla inglés, como Australia, Reino Unido, Irlanda, India, Sudáfrica, entre otros.
Para acceder a estas mejoras antes del lanzamiento oficial, los interesados deben unirse a la lista de espera del programa Early Access de Meta, lo cual permite probar versiones beta del software y participar en el desarrollo de las funcionalidades finales.
Esta estrategia de acceso anticipado también le da a Meta una vía directa para recibir retroalimentación real de los usuarios, afinando el rendimiento de las funciones antes de una distribución masiva.
Un paso más hacia la tecnología vestible centrada en la utilidad
Meta insiste en convertir sus gafas en más que un accesorio futurista. Con estas actualizaciones, se refuerza la idea de que los dispositivos portables inteligentes pueden integrarse en la vida diaria sin interrumpirla, aportando funciones que se adaptan a situaciones reales.
La capacidad de amplificar voces específicas o generar un ambiente musical según lo que se ve, sugiere un horizonte donde la tecnología se comporta como un asistente sensorial, acompañando al usuario de forma discreta y personalizada.
Si bien algunas funciones podrían parecer superficiales en su concepto, su valor radica en la combinación entre forma, función y contexto. Las gafas de Meta están diseñadas para lucirse, pero también para escuchar y responder al entorno de quien las lleva puestas.
