
Los ordenadores cuánticos prometen resolver cálculos que, para las máquinas tradicionales, serían imposibles de procesar en tiempos razonables. Sus aplicaciones abarcan desde la investigación de nuevos medicamentos hasta la seguridad digital o la inteligencia artificial. Pero hay una pregunta que sigue incomodando a la comunidad científica: si estos dispositivos ofrecen soluciones a problemas que ni el superordenador más potente puede verificar, ¿cómo sabemos que sus respuestas son correctas?
Esta paradoja ha sido enfrentada por un equipo de investigadores de la Swinburne University of Technology, que propone una nueva forma de validación para comprobar los resultados generados por ciertos ordenadores cuánticos, sin necesidad de esperar a que un sistema clásico los confirme durante miles de años.
Qué es un Gaussian Boson Sampler y por qué es tan difícil de verificar
Una de las arquitecturas cuánticas que ha captado más atención en los últimos años es la del Gaussian Boson Sampler (GBS). Este tipo de ordenador cuántico se basa en fotones, las partículas elementales de la luz, para resolver problemas de muestreo de distribuciones de probabilidad que, para un ordenador clásico, requerirían tiempos de procesamiento de miles de años.
El GBS es como una ruleta cuántica: lanza una combinación de fotones en un dispositivo que los hace interferir de distintas formas, y el resultado es una «foto» probabilística del comportamiento de estas partículas. Es precisamente esa distribución la que puede ser utilizada para resolver ciertos problemas matemáticos de gran complejidad. Pero aquí surge el dilema: si nadie puede reproducir ese resultado con un ordenador clásico en un tiempo razonable, ¿cómo saber si el GBS ha dado la respuesta correcta o si simplemente está arrojando números aleatorios?
Una solución a escala humana para un problema cuántico
El equipo liderado por Alexander Dellios, investigador postdoctoral en el Centro de Teoría de Ciencia Cuántica de Swinburne, desarrolló un método para comprobar si los resultados de un GBS son coherentes con lo que deberían generar. Y lo más interesante es que esta verificación no requiere superordenadores: se puede realizar en cuestión de minutos desde un portátil convencional.
El sistema permite analizar la distribución de probabilidad generada por el dispositivo cuántico y compararla con el comportamiento teórico esperado. Si hay desviaciones, el método detecta si estas son errores esperables por ruido o si se trata de problemas estructurales que invalidan el resultado. Esta herramienta actúa como una especie de «detector de mentiras» para ordenadores cuánticos.
Aplicando la lupa: revelando errores en experimentos ya publicados
Para demostrar la eficacia de su enfoque, los investigadores aplicaron este sistema de validación a un experimento reciente que había sido catalogado como un hito en la computación cuántica. El experimento, basado en un GBS, habría necesitado al menos 9.000 años para ser replicado con un superordenador clásico. Sin embargo, en pocos minutos, el nuevo método reveló que la distribución obtenida no coincidía con el objetivo previsto. Había más ruido del esperado y errores no reportados anteriormente.
Este hallazgo no invalida por completo los avances del experimento, pero introduce un matiz crítico: incluso los sistemas cuánticos más avanzados pueden fallar sin que nadie lo note. Aquí es donde la herramienta propuesta cobra especial relevancia. No solo permite validar resultados, sino que puede guiar a los ingenieros cuánticos en el ajuste fino de sus máquinas.
Qué implica perder la «cuanticidad»
Uno de los aspectos más intrigantes del estudio es su enfoque sobre la llamada «cuanticidad» de los dispositivos. Un ordenador cuántico se define, entre otras cosas, por la capacidad de explotar propiedades como la superposición y el entrelazamiento cuántico. Pero si los errores o el ruido en un dispositivo son demasiado grandes, podría comportarse como un sistema clásico disfrazado de cuántico.
El nuevo método permite identificar si el sistema analizado conserva estas propiedades esenciales o si, por el contrario, ha perdido su ventaja cuántica. Es un paso fundamental hacia la construcción de ordenadores cuánticos comerciales fiables, que no solo prometan respuestas revolucionarias, sino que puedan garantizar su validez.
Hacia una cuántica con garantía de confianza
El desarrollo de herramientas de validación escalables como esta representa un componente clave en el camino hacia una computación cuántica sin errores. La posibilidad de detectar y corregir fallos sin necesidad de comparar cada resultado con un superordenador es como tener un mecánico experto que escucha el sonido del motor y sabe de inmediato dónde está el problema, sin necesidad de desmontar todo el coche.
Dellios y su equipo consideran que este avance allana el camino para que los ordenadores cuánticos puedan incorporarse a tareas del mundo real, como el diseño de fármacos, la optimización de sistemas logísticos complejos o la creación de nuevos materiales.
El estudio, publicado en la revista Quantum Science and Technology, marca un hito en la evaluación independiente de dispositivos cuánticos y abre la puerta a una nueva etapa de desarrollo donde la confianza en los resultados será tan importante como la velocidad de cálculo.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
