Un transceptor inalámbrico en banda F que promete velocidades de fibra sin cables

Publicado el

noticia3_transceptor

Cuando pensamos en conexiones rapidísimas, solemos imaginar un hilo de fibra óptica cruzando paredes, racks y armarios de telecomunicaciones. La promesa del nuevo sistema presentado por ingenieros universitarios es tentadora por lo simple que suena: acercar esa experiencia “de fibra” a un enlace inalámbrico de corto alcance. Su propio equipo lo describe como un “cable de parcheo” pero sin el cordón físico, un puente pensado para unir máquinas y equipos a velocidades que hoy asociamos más a centros de datos que a móviles.

El núcleo del avance es un transceptor completo, es decir, un conjunto de transmisor y receptor diseñado como chips de silicio que trabajan en frecuencias muy altas, llegando a la zona de los 140 GHz. Con esa “altura” en el espectro se abre una autopista ancha: más banda disponible para mover datos. En las pruebas, el sistema logra 120 Gbps, una cifra que sirve para ponerlo en perspectiva: es como pasar de una carretera comarcal a una autovía de muchos carriles para el tráfico de bits, con la diferencia de que aquí el problema no es solo “caber”, sino no convertir el chip en una estufa.

Por qué importa subir a la banda F (90–140 GHz)

La llamada banda F en terminología de guías de onda se asocia habitualmente al rango aproximado de 90 a 140 GHz. En esa franja, la longitud de onda es milimétrica y entramos en un terreno donde las antenas pueden ser pequeñas, el ancho de banda potencial crece y, al mismo tiempo, la propagación es más exigente: el alcance suele ser menor y los obstáculos pesan más. Dicho de forma cotidiana, es como hablar más rápido y con frases más largas, pero en una sala donde las paredes absorben parte del sonido: funciona especialmente bien a distancias cortas y con el “escenario” controlado.

Esa combinación encaja con dos mundos que llevan tiempo chocando con sus límites. Por un lado, las redes móviles que miran a 6G y “FutureG” para soportar tráfico masivo, baja latencia y nuevos casos de uso. Por otro, los centros de datos y las interconexiones entre racks, donde el cableado interno crece sin parar y el coste no es solo el cobre o la fibra, sino la instalación, el mantenimiento, la refrigeración y la rigidez de tenerlo todo “atado”. La arquitectura se plantea como un paso hacia enlaces ultrarrápidos inalámbricos que eviten parte de esa maraña.

La pared de los convertidores: el cuello de botella que quema vatios

A estas velocidades aparece un enemigo conocido por cualquier diseñador de radio moderna: los convertidores. Para generar señales complejas desde lo digital se recurre a DAC (digital a analógico) en el transmisor; para capturar señales rápidas y pasarlas a bits se usan ADC (analógico a digital) en el receptor. El problema es que, cuando el caudal sube, estos componentes pueden convertirse en el “peaje” más caro de la autopista: consumen mucha energía y su complejidad escala mal.

En los trabajos técnicos publicados en una revista especializada del IEEE, el equipo describe justamente esa presión. A frecuencias y tasas de datos tan elevadas se habla de un “bottleneck” por muestreo y conversión: digitalizar señales del orden de cientos de gigahercios con el detalle necesario puede disparar el consumo a niveles poco realistas para dispositivos compactos. En vez de insistir en el enfoque clásico, su propuesta desplaza parte del “trabajo pesado” hacia el dominio analógico, donde ciertas operaciones pueden hacerse con menos coste energético que simulándolas con lógica digital a gran velocidad.

“Bits-to-antenna”: un transmisor que construye la señal en RF

En el transmisor, la idea clave es reducir la dependencia del DAC. El artículo lo presenta como un enfoque bits-to-antenna, un nombre bastante literal: de los bits directamente a la antena, evitando pasos intermedios que suelen ser caros en energía. La señal se “construye” en el dominio de radiofrecuencia con subtransmisores sincronizados, una especie de equipo de tres cocineros trabajando coordinados para sacar un plato complejo sin tener que pasar por una cocina intermedia donde se desperdicia calor.

En cuanto a modulación, aparece un término importante: RF-64QAM. La 64QAM es una modulación que empaqueta mucha información en cada símbolo, como si en lugar de enviar letras sueltas enviáramos sílabas completas. Es eficiente en “bits por símbolo”, pero exige precisión; cualquier ruido o distorsión puede confundir una sílaba con otra. Aquí, el interés está en lograr esa densidad de información a frecuencias de banda F, manteniendo el consumo bajo control.

La comparación que propone el equipo ayuda a aterrizarlo: preparar la maleta antes de salir, en lugar de intentar ordenar la ropa corriendo hacia el aeropuerto. Traducido a ingeniería, significa organizar la señal de forma más directa y limpia en RF, sin convertir constantemente entre mundos digital y analógico.

“Antenna-to-bits”: un receptor que pelar capas antes de digitalizar

Si el transmisor evita “pintar” la señal con un DAC enorme, el receptor enfrenta el espejo del problema: no depender de un ADC gigantesco para atrapar un flujo de datos de 120 Gbps. El trabajo describe una demodulación jerárquica en analógico, una estrategia que consiste en descomponer la señal por etapas, como cuando separas una cebolla en capas antes de picarla. En vez de intentar digitizarlo todo de golpe con un convertidor monstruoso, el receptor va “desenredando” la información en el dominio analógico y entrega al mundo digital algo ya más manejable.

Aquí también hay un dato que llama la atención: el chip receptor se fabricó en tecnología 22 nm FDSOI y se reporta un consumo de alrededor de 230 mW, una cifra que se acerca mucho más a lo imaginable para equipos compactos que los vatios que pueden requerir soluciones de muestreo extremo. No significa que mañana tengamos móviles a 120 Gbps sostenidos en la calle, pero sí que el enfoque apunta a un equilibrio que no se basa en “forzar” la electrónica hasta el límite térmico, sino en rediseñar la arquitectura para que haga más con menos.

Qué cambia para 6G, robots, IA en el borde y centros de datos

Este tipo de enlace ultrarrápido es especialmente atractivo en escenarios donde el alcance corto no es una desventaja, sino una condición natural. En un centro de datos, por ejemplo, unir racks o módulos cercanos con enlaces inalámbricos de muy alta capacidad podría reducir parte del cableado interno, y con ello ciertos costes de instalación y mantenimiento. Si has visto un rack por dentro, sabes que los cables no son solo “cables”: son espacio, calor, puntos de fallo y tiempo de intervención. La visión es que un enlace tipo “parcheo inalámbrico” podría aliviar esa densidad.

En el mundo industrial y de robótica, donde varias máquinas cooperan en espacios definidos, una “tubería” inalámbrica muy ancha permitiría coordinación más rica: sensores de alta resolución, cámaras y gemelos digitales compartiendo datos sin depender de tiradas de cable que limitan movimiento y reconfiguración. En edge computing y aplicaciones de IA cerca del dispositivo, la promesa se parece a tener un “carril rápido” para mover datos entre módulos de cómputo y sensores sin añadir latencias o cuellos de botella internos, algo que cobra valor cuando se quiere reaccionar en tiempo real.

Aun así, conviene ser precisos: lo más inmediato suele ser infraestructura y enlaces punto a punto de corto alcance, no cobertura general tipo red móvil urbana. Operar por encima de 100 GHz también implica debates de espectro y estandarización que todavía están en movimiento.

Lo que falta para que deje de ser “laboratorio”

Como pasa con casi toda la electrónica de frontera, el salto del prototipo a la adopción masiva depende de varios frentes. Está el empaquetado y la integración con antenas en productos reales, la robustez ante variaciones de fabricación, la convivencia con interferencias y, sobre todo, la definición de casos de uso donde la inversión tenga sentido. También está la parte regulatoria y de estandarización, porque operar en bandas tan altas implica reglas, bandas asignadas y acuerdos de interoperabilidad.

La parte interesante es que el equipo remarca el uso de procesos de fabricación habituales en semiconductores, un detalle que suele marcar la diferencia entre una demostración espectacular y un camino plausible hacia productos: si se puede construir con herramientas industriales estándar, la discusión deja de ser “si es posible” y pasa a “qué coste y para qué mercado”. El hecho de que el trabajo esté detallado en publicaciones técnicas revisadas por pares también invita a que otros grupos lo repliquen, lo comparen y lo mejoren, que es como realmente madura una tecnología de comunicaciones.