En el MWC 2026 de Barcelona, Lanner Electronics ha puesto sobre la mesa un mensaje claro: la evolución de las redes móviles ya no va solo de ampliar cobertura o sumar capacidad, sino de hacer que la propia red aprenda y se ajuste sobre la marcha. Su anuncio, difundido a través de un comunicado distribuido por PRNewswire-PRWeb, gira en torno a sus nuevos servidores AstraEdge orientados a AI-RAN, un enfoque que busca aplicar inferencia de inteligencia artificial directamente en la RAN (Radio Access Network) para tomar decisiones en milisegundos.
Para aterrizarlo con una imagen cotidiana, piensa en el tráfico de una ciudad. Una red “tradicional” se parece a un conjunto de semáforos programados con horarios fijos. Funciona, pero no entiende si hoy llueve, si hay un evento o si se ha cortado una calle. AI-RAN aspira a ser el sistema de gestión inteligente que observa el flujo en vivo, detecta atascos y reajusta semáforos y desvíos en tiempo real. En redes 5G, esa “inteligencia” se traduce en asignación más fina de recursos de radio, mitigación de interferencias y auto-optimización para mejorar experiencia del usuario, latencia y eficiencia energética.
Por qué importa el “borde”: cuando cada milisegundo cuenta
Uno de los puntos clave del anuncio es la apuesta por ejecutar, en el mismo lugar, inferencia de IA, funciones de RAN y procesamiento de paquetes de alto rendimiento. Ese “lugar” es el edge o borde de la red, cerca de las estaciones base y de donde sucede el tráfico real. Si la red tuviera que enviar datos constantemente a un centro de datos lejano para decidir cómo ajustar la radio, sería como pedir consejo por carta para esquivar un charco que tienes delante: cuando llega la respuesta, ya estás empapado.
Al co-localizar cargas de trabajo, Lanner busca que decisiones como priorizar tráfico, ajustar parámetros radio o descargar tareas de red se ejecuten con una latencia más predecible. El comunicado habla de mejoras en throughput, latency y energy efficiency, objetivos que encajan con la presión actual sobre operadores: más datos, más dispositivos, más casos de uso sensibles al retardo y el coste energético en el punto de mira.
AstraEdge: servidores “de chasis corto” para despliegues telco
Lanner presenta dos modelos, ECA-6710 y ECA-5555, definidos como servidores compactos de “short-chassis”. En lenguaje de calle: equipos pensados para espacios donde no sobra ni un centímetro, como armarios en emplazamientos de red o ubicaciones periféricas, sin renunciar a músculo de cómputo.
La propuesta se apoya en una idea práctica: en vez de tener una caja para la radio, otra para aceleración de IA y otra para funciones de red, concentrar esas capacidades en plataformas preparadas para despliegues telco. Cuando se hace bien, reduce complejidad operativa, consumo y puntos de fallo, algo especialmente relevante en ubicaciones distribuidas.
ECA-6710: enfoque NVIDIA para densidad de cómputo y movimiento eficiente de datos
El ECA-6710 MGX Server se describe como una plataforma de 42 cm de profundidad, lo que refuerza su orientación a despliegues con restricciones físicas. Su configuración mencionada en el comunicado combina NVIDIA Grace CPU (C1), NVIDIA L40S como GPU y NVIDIA BlueField-3 DPU. En la práctica, aquí la clave no es solo “más potencia”, sino cómo se reparte el trabajo.
La metáfora sería una cocina profesional: no basta con tener un gran chef (CPU) si los ayudantes (aceleradores) no están coordinados y si los ingredientes no llegan a tiempo (movimiento de datos). La presencia de una DPU BlueField-3 apunta a descargar tareas de red y acelerar flujos de datos, liberando recursos para que la inferencia de IA y el procesamiento se ejecuten con mayor eficiencia. Según el comunicado, esta combinación busca alta densidad de cómputo y un “data movement” optimizado, dos ingredientes fundamentales cuando se pretende hacer IA y red a la vez en el borde.
ECA-5555: Intel Xeon 6, sincronización precisa y resistencia para entornos difíciles
El segundo modelo, ECA-5555 AI-RAN Server, se apoya en un Intel Xeon 6 SoC con vRAN Boost, e incorpora sincronización de tiempo IEEE 1588 y aceleración mediante NVIDIA L40S. En redes móviles, el tiempo no es un detalle: es la base de la coordinación. Una diferencia minúscula en sincronización puede afectar la calidad, especialmente en escenarios exigentes de vRAN y Open RAN, donde la virtualización y la desagregación elevan la importancia de mantener una temporización precisa.
Aquí Lanner añade otra capa: la robustez. El comunicado destaca un diseño “ruggedized” con un rango de operación de -40 °C a 55 °C. Esto no suena glamuroso, pero es tremendamente relevante. Muchos emplazamientos de red no son salas climatizadas de laboratorio; pueden ser exteriores, espacios industriales o ubicaciones con condiciones ambientales cambiantes. Que el hardware se mantenga estable ayuda a que la latencia sea más predecible y el comportamiento, consistente, que es justo lo que buscan las operaciones telco cuando se habla de cargas críticas.
Qué puede habilitar en la práctica: optimización, interferencias y autonomía operativa
El comunicado menciona tareas concretas: asignación de recursos radio, mitigación de interferencias y auto-optimización. Traducido a experiencia cotidiana, es como pasar de un termostato manual a uno inteligente. Con el manual, tú decides y ajustas; con el inteligente, el sistema observa, aprende patrones y ajusta sin que tengas que intervenir todo el tiempo.
En 5G, donde conviven muchos tipos de tráfico —video, juegos, teletrabajo, sensores industriales— la capacidad de ajustar recursos en tiempo real es un diferenciador. También lo es la eficiencia energética: si la red puede “hacer más con menos”, el ahorro se vuelve estructural, no solo un parche. Eso sí, conviene mantener el foco: el hardware por sí solo no garantiza una red autónoma. Hace falta integración con software, modelos bien entrenados, telemetría y una operación que confíe en la automatización sin perder control.
Ecosistema y estrategia: por qué Lanner habla de “arquitecturas AI-native”
Lanner se define como proveedor de plataformas de Edge AI y appliances de red, con trabajo en 5G, ciberseguridad e industrial. Su discurso encaja con una tendencia mayor del sector: convertir la red en una plataforma “AI-native”, donde la IA no sea un añadido, sino un componente central del diseño. La frase del CTO, Jeans Tseng, en el comunicado, resume esa transición al plantear que AI-RAN mueve la radio desde infraestructura estática hacia sistemas dinámicos capaces de “pensar”.
Desde una óptica objetiva, el anuncio sitúa a Lanner en un punto interesante del mapa: no compite tanto en el plano del operador o del proveedor de software RAN, sino en el del “sustrato” de cómputo y aceleración en el edge. Si la industria empuja más funciones hacia el borde —por latencia, costes de transporte, privacidad o resiliencia— estas plataformas se vuelven piezas que pueden encajar en múltiples diseños de red.
Lo que conviene vigilar: despliegue real, consumo y madurez de AI-RAN
Como ocurre con muchas propuestas de infraestructura, la diferencia entre promesa y resultado se mide en despliegues reales. Será relevante observar cómo se comportan estas configuraciones en escenarios con carga variable, interferencias cambiantes y requisitos estrictos de temporización. También importará el equilibrio entre potencia y consumo: poner aceleradores en el borde aporta capacidad, pero obliga a gestionar energía, refrigeración y mantenimiento en ubicaciones distribuidas.
Otro punto a seguir es la madurez operativa de AI-RAN. Automatizar decisiones en la radio exige gobernanza: qué decisiones se delegan, con qué límites, cómo se auditan y cómo se corrigen sesgos o comportamientos no deseados. El hardware de AstraEdge está pensado para habilitar esa computación “cerca de la antena”, pero el éxito depende de un encaje completo entre plataforma, software, observabilidad y procesos.
