La promesa de la computación cuántica lleva años asociada a tareas que a los ordenadores clásicos se les atragantan, como ciertas simulaciones químicas, optimización o criptografía. El problema práctico es menos glamuroso: los QPU (quantum processing units) actuales suelen moverse entre decenas y unos pocos cientos de qubits físicos, y eso queda muy lejos de lo que exigirían aplicaciones con corrección de errores a escala industrial. En muchos escenarios se habla de miles de qubits lógicos, que en la práctica se traducen en millones de qubits físicos.
Una vía para escapar del “techo” de un único dispositivo consiste en conectar varios QPU mediante una red cuántica para que trabajen como si fueran un solo sistema. La idea recuerda a cómo un centro de datos suma servidores para construir una máquina virtual mayor, con una diferencia crucial: en cuántica no basta con cablear nodos y enviar datos como en Ethernet. Los estados cuánticos no se pueden copiar y se degradan con facilidad, lo que obliga a apoyarse en un ingrediente específico: el entrelazamiento. Continúa leyendo «Por qué la computación cuántica distribuida está sobre la mesa»