Un equipo de investigadores de IBM en asociación con UC Berkeley y la Universidad de Purdue logró extraer computación cuántica útil de una de las computadoras NISQ (Noisy Intermediate Scale Quantum) actuales. El equipo utilizó una de las últimas Unidades de Procesamiento Cuántico (QPU) de IBM, Eagle, para realizar cálculos que deberían fallar en medio del ruido qubit. Sin embargo, al utilizar un mecanismo de retroalimentación inteligente entre la QPU Eagle de 127 qubits de IBM y las supercomputadoras de UC Berkeley y la Universidad de Purdue, IBM pudo demostrar que podía obtener resultados útiles de una QPU ruidosa. La puerta a la utilidad cuántica está abierta, y estamos mucho antes de lo esperado.
Nuestras computadoras cuánticas de la era NISQ están conectadas a nuestras supercomputadoras estándar: las máquinas más poderosas conocidas por la humanidad, capaces de realizar billones de operaciones por segundo. Tan poderosos como son, es una verdad universal que cuando dos sujetos están unidos, solo se mueven tan rápido como lo permita el más lento. Y la supercomputadora ya estaba sobrecargada para este experimento, utilizando técnicas avanzadas para mantenerse al día con la complejidad de la simulación.
Cuando la simulación de los qubits se volvió demasiado compleja para que la supercomputadora simplemente «forzara brutamente» los resultados, los investigadores de UC Berkeley comenzaron a usar algoritmos de compresión: estados de red de tensores. Estos estados de red de tensores (matrices) son esencialmente cubos de datos, donde los números que componen los cálculos se representan en un espacio tridimensional (x, y, z) capaz de manejar relaciones y volúmenes de información más complejos que una solución 2D. más común: piense en una tabla de Excel 2D simple (x, y) y las muchas otras filas que tendría que buscar en esta configuración si tuviera que considerar otro plano de información (z).
«El quid del trabajo es que ahora podemos usar los 127 qubits Eagle para ejecutar un circuito bastante grande y profundo, y los números salen bien».
kristan temme
Esto significa que ya existe alguna utilidad que se puede extraer de las computadoras cuánticas NISQ: hay problemas en los que pueden producir resultados que estarían más allá del alcance, al menos en términos de tiempo y dinero, para las supercomputadoras estándar, o donde se necesitan los aros. obtener estos resultados haría que el esfuerzo fuera mayor que la ganancia.
(Crédito de la imagen: IBM Quantum)
Ahora hay un ir y venir entre las soluciones proporcionadas por nuestras computadoras cuánticas de la era NISQ que cuentan con unos pocos cientos de qubits (en el mejor de los casos) y nuestras supercomputadoras estándar que cuentan con billones de transistores. A medida que aumente la cantidad de qubits útiles disponibles, se explorarán los circuitos con profundidades más profundas 60 que se usan en el artículo. A medida que aumenta la cantidad y la calidad de los qubits, las supercomputadoras estándar también tendrán que mantenerse al día, procesando los números y verificando una cola de resultados de computación cuántica tan profunda como sea posible.
«Esto apunta inmediatamente a la necesidad de nuevos métodos clásicos», dijo Anand. Y ya están analizando estos métodos. «Ahora nos preguntamos si podemos tomar el mismo concepto de mitigación de errores y aplicarlo a las simulaciones clásicas de redes de tensores para ver si podemos obtener mejores resultados clásicos».
Esencialmente, cuanto más exactamente pueda predecir cómo evoluciona el ruido en su sistema cuántico, mejor sabrá cómo ese ruido envenena los resultados correctos. La forma en que aprendes a predecir algo es simplemente tocándolo y observando lo que sucede el tiempo suficiente para identificar las palancas que lo hacen funcionar.
Algunas de esas palancas tienen que ver con cómo y cuándo enciendes tus qubits (algunos circuitos usan más qubits, otros requieren que esos qubits se organicen en puertas más o menos cuánticas, con enredos más complejos entre ciertos qubits…) y qué ruido resultó al girar cada una de estas perillas dentro de su Quantum Eagle de 127 qubits, porque si sabe cómo introducir ruido, comienza a controlarlo. Si comprende cómo aparece en primer lugar, puede explicarlo, lo que a su vez le permite tratar de evitarlo o aprovecharlo.
Pero si solo está ejecutando cálculos en su computadora ruidosa, ¿cómo puede saber si esos cálculos son correctos? Ahí es donde entran las supercomputadoras estándar, y la búsqueda de la verdad absoluta.
El equipo de IBM tuvo acceso a dos supercomputadoras: el Centro Nacional de Computación Científica de Investigación Energética (NERSC) del Laboratorio Nacional de Berkeley y la supercomputadora Anvil financiada por la NSF en la Universidad de Purdue. Estas supercomputadoras calcularían las mismas simulaciones cuánticas que IBM ejecutó en su Eagle QPU de 127 qubits, divididas según sea necesario dentro de ellas y de manera que permitan la comparación de los resultados de ambas supercomputadoras. Ahora, tiene una verdad fundamental: la solución que sabe que es correcta, lograda y verificada por supercomputadoras estándar. Ahora la luz es verde para comparar tus resultados ruidosos con los correctos.
«IBM le preguntó a nuestro grupo si estaríamos interesados en asumir el proyecto, sabiendo que nuestro grupo se especializaba en las herramientas computacionales necesarias para este tipo de experimento», dijo Sajant Anand, investigador graduado de UC Berkeley. “Al principio pensé que el proyecto era interesante, pero no esperaba que los resultados fueran los mismos”.
Entonces es «solo» una cuestión de resolver un acertijo de «encuentra las diferencias»: una vez que te das cuenta de cómo exactamente la presencia de ruido distorsionó los resultados, puedes compensar su presencia y obtener la misma «verdad básica» que estaba presente en el estándar. resultados de la supercomputadora. IBM llama a esta técnica Zero Noise Extrapolation (ZNE).
Es un proceso simbiótico: el equipo de IBM responsable del artículo también busca llevar sus técnicas de mitigación de errores, y los equivalentes de extrapolación de ruido cero, a las supercomputadoras estándar. Entre el aumento de la potencia bruta de los últimos desarrollos de hardware y las optimizaciones de algoritmos y técnicas (como el uso de algoritmos de compresión inteligente), la potencia bruta de la supercomputación crecerá, lo que nos permitirá verificar nuestro trabajo de computación cuántica un poco más adelante. era post-informática. – Computadores cuánticos NISQ y su despliegue de corrección de errores cuánticos.
Es en este punto que la cuerda se rompe y el cuanto queda relativamente libre de la necesidad de verificar sus resultados con técnicas clásicas. Esto es lo que está ralentizando la computación cuántica (aparte de la falta de corrección de errores que permitirá que los qubits realicen los cálculos por sí mismos, por supuesto).
En una entrevista con Tom’s Hardware para este artículo, el Dr. Abhinav Kandala, gerente de Capacidades y Demostraciones Cuánticas en IBM Quantum, dijo maravillosamente:
«… Incluso si tiene una versión ruidosa de ese estado, puede medir qué propiedades tendría ese estado en ausencia de ruido».
doctor Abhinav Kandala
Exceto com o quantum, você pode aumentar a complexidade do problema além do que os supercomputadores podem lidar – e porque você modelou corretamente como o ruído afeta o sistema, você ainda pode executar as etapas de limpeza em seus resultados ruidosos… com algum grau de confianza. Cuanto más se aleje de los resultados «concluyentemente verdaderos» proporcionados por las supercomputadoras estándar, más probable es que introduzca errores fatales en los cálculos que no se tuvieron en cuenta (y no se pudieron tener) en su modelo de ruido.
Pero si bien puede confiar en sus resultados, en realidad proporcionó capacidades de procesamiento cuántico que son útiles y van más allá de lo que se puede lograr con las máquinas de Turing clásicas de la generación actual, como la supercomputadora de Berkeley. También va más allá de lo que se creía posible en nuestras computadoras de la era NISQ (Noisy Intermediate Stage Quantum). Y resulta que muchos algoritmos diseñados para dispositivos cuánticos a corto plazo podrían encajar en los 127 qubits de Eagle QPU de IBM, que puede proporcionar profundidades de circuito superiores a 60 pasos «por valor» de puertas cuánticas.
(Crédito de la imagen: IBM Quantum)
el medico Kandala luego agregó: «Lo que estamos haciendo con la mitigación de errores, que es ejecutar circuitos cuánticos de profundidad corta y medir lo que llamamos valores esperados, medir propiedades de estado, no es lo único que la gente quiere hacer con las computadoras cuánticas». ? significa desbloquear todo el potencial que se necesita en la corrección de errores cuánticos y el sentimiento predominante era que para hacer algo útil, solo puede acceder a eso después de haber corregido una computadora cuántica.
“La parte crítica fue la capacidad de manipular el ruido además del estiramiento de la muñeca”, dijo el Dr. Kandala. «Una vez que eso comenzó a funcionar, pudimos hacer extrapolaciones más complicadas que podrían suprimir el sesgo de ruido de una manera que no podíamos hacer antes».
Es probable que ZNE se convierta en un elemento básico de cualquier enfoque de la computación cuántica: la mitigación de errores es un requisito esencial para las computadoras NISQ propensas a errores que tenemos hoy y probablemente será necesario incluso cuando lleguemos a la puerta de la corrección de errores: un enfoque que ve ciertos qubits encargados de funciones relacionadas con la corrección de errores en los cálculos de otros qubits.
El trabajo realizado por IBM aquí ya ha tenido un impacto en la hoja de ruta de la empresa: el ZNE tiene esa cualidad seductora de hacer mejores qubits que los que ya podemos controlar dentro de una Unidad de Procesamiento Cuántico (QPU). Es casi como si tuviéramos un aumento de megahercios: más rendimiento (menos ruido) sin ninguna lógica adicional. Podemos estar seguros de que estas lecciones se están considerando e implementando siempre que sea posible en el camino hacia «más de un millón de qubits».
También es difícil ignorar cómo este trabajo muestra que realmente no hay una carrera entre cuántico y clásico: el futuro es Fusion, para jugar un poco con la vieja bicicleta de AMD. Este Fusion verá elementos informáticos específicos que atienden necesidades de procesamiento específicas. Cada problema, por complejo que sea, tiene su herramienta, desde la clásica hasta la cuántica; y el ingenio humano exige que sobresalgamos en el uso de todos los nuestros.
Esa cuerda proverbial entre las supercomputadoras estándar y las computadoras cuánticas solo se extiende hasta cierto punto, pero IBM está encontrando formas cada vez más inteligentes de extender su longitud. Gracias a esta investigación, los ordenadores cuánticos ya empiezan a mirar un poco más allá. Quizás el Dr. Kandala logra ver lo que espera antes de lo que espera: el patio de recreo para la utilidad cuántica ahora está abierto antes de lo previsto. Veamos qué pueden hacer los humanos dentro de él, ¿de acuerdo?