¿Por qué> 99% de los recursos entran en la corrección de errores para cálculos de QM largos, incluso con puertas físicas con muy alta fidelidad?

Hay una serie de suposiciones en esa declaración:

  • esto se basa en los algoritmos de corrección de errores cuánticos conocidos
  • esto se basa en algoritmos de control cuántico conocidos
  • Esto se basa en diseños de compuerta conocidos y especulaciones sobre cómo se mejorarán en el momento en que sean posibles los cálculos cuánticos largos

A partir de ahí, la siguiente pregunta es cómo definiría una fidelidad muy alta. Si se te ocurre un diseño de puerta que tenga fidelidad más allá de todas las predicciones actuales, la declaración ya no será cierta. (Esto es esencialmente lo que sucedió con las computadoras clásicas. A Turing se le ocurrió una prueba de que es posible construir una computadora confiable con componentes defectuosos. Para cuando se construyeron las computadoras clásicas prácticas, los componentes eran lo suficientemente buenos como para que el trabajo fuera en gran medida innecesario .)

Sin embargo, si su fidelidad de compuerta está en línea con las predicciones actuales, entonces tiene el problema de que puede hacer muy pocas operaciones antes de que ocurra la decoherencia de qubit. Para la computación clásica, podemos observar los bits y, utilizando técnicas como la paridad o los códigos de corrección de errores, es posible determinar qué bit (s) tienen errores y corregirlos. Además, un bit que tiene una señal débil puede fortalecerse.

Con la información cuántica, por supuesto, leer el qubit colapsaría su estado. Por lo tanto, los códigos de corrección de errores cuánticos terminan usando muchos qubits físicos por qubit lógico, de modo que es posible observar solo el ancilla (qubits que existen solo para la corrección de errores) para realizar la corrección. Como el cálculo es más largo, muchas técnicas existentes agregan capas de corrección de errores (es decir, un qubit lógico en la capa n se representa realmente como varios qubits físicos lógicos en la capa n + 1, recursivamente).

Por supuesto, hay investigaciones sobre nuevas técnicas, como la corrección de errores topológicos, que reducen la necesidad de qubits físicos. Todavía hay un largo camino por recorrer, pero hay tiempo antes de que tengamos una computadora cuántica general práctica.

Además, si los qubits mejoran de modo que sea razonable realizar varias operaciones antes de cada paso de corrección de errores, eso también ayudaría a reducir (o con mejoras dramáticas obviar) la necesidad de QEC.

Tanto el poder como la dificultad de la computación cuántica están estrechamente vinculados al hecho de que los qubits son dispositivos inherentemente analógicos que pueden estar en un número infinito de posibles estados de superposición en lugar de solo uno de los dos estados etiquetados como 0 y 1. Todo el espacio de estados puede representarse como el conjunto de puntos en una esfera unitaria, conocida en CC como la Esfera Bloch, que tiene los estados 0 y 1 en los polos norte y sur. Cada vez que un qubit interactúa suficientemente fuerte con su entorno macroscópico, tiende a terminar en uno de estos estados debido al fenómeno conocido como decoherencia. Una medición es un ejemplo de tal interacción, y de hecho difiere de la decoherencia solo en la medida en que una medición proporciona información al experimentalista sobre * en qué * de los dos polos terminó el qubit.

Ahora imagine que desea realizar un algoritmo cuántico, que generalmente es una secuencia larga de manipulaciones del estado del qubit, esencialmente rotaciones arbitrarias alrededor de la esfera de Bloch. (Es probable que un algoritmo útil también involucre muchos otros qubits que se manipulan en paralelo, incluso de formas que crean enredos entre ellos, pero podemos ignorar los otros qubits por ahora, ya que no cambian apreciablemente la esencia de la historia sobre por qué la corrección de errores es difícil). Si algunas de sus rotaciones no son perfectas o el qubit se ve perturbado en alguna medida por interacciones no deseadas, ¡y ambas cosas son siempre el caso en experimentos reales! – luego, en el transcurso de su larga secuencia de manipulaciones, estos errores se acumularán tarde o temprano hasta el punto de que el qubit no está cerca del estado en el que hubiera estado si todo hubiera sido perfecto. Incluso si sus rotaciones son 99.999% perfectas, mejor que la demostrada en cualquier sistema de computación cuántica hasta la fecha, ¡aún terminará con la basura si intenta hacer millones de ellas!

La solución ingenua sería verificar periódicamente el estado del qubit en el camino, pero, por supuesto, si mide el qubit, lo forzará irrecuperablemente a 0 o 1. Tampoco puede copiar el estado del qubit a un segundo qubit y luego mida eso, gracias al Teorema de no clonación. Lo que puede hacer es aplicar uno de una variedad de diferentes códigos de corrección de errores que se han desarrollado, que generalmente implican operar varios qubits físicos en concierto para que actúen como un qubit único tolerante a fallas, también conocido como un qubit lógico . Dado que los esquemas de corrección de errores también implican realizar manipulaciones qubit, generalmente tienen la propiedad de que hacen más daño que bien a menos que sus manipulaciones sean realmente buenas para comenzar. En particular, se puede calcular una tasa de error físico de “umbral”: para tasas por debajo del umbral, un qubit lógico más grande (es decir, uno que consta de más qubits físicos) funcionará mejor que uno más pequeño, mientras que para tasas por encima de este umbral, irá a Los tamaños de qubit lógicos más grandes tenderán a empeorar las cosas.

La diapositiva de Freedman probablemente se refiere a una clase específica de códigos de corrección de errores conocidos como códigos de superficie. Actualmente están de moda por al menos dos razones principales: a) requieren una serie plana de qubits con solo interacciones vecinas más cercanas, que es algo que los experimentadores pueden hacer; y b) se ha demostrado teóricamente que tienen umbrales de error de menos del 1% (es decir, un poco más del 99% de fidelidad), lo cual es bastante generoso en comparación con otros códigos y está en el umbral (sin juego de palabras) de ser golpeado regularmente en ciertos exámenes físicos. implementaciones de qubit. La penalización por estas dos características es que se requiere una gran cantidad de sobrecarga, es decir, lograr una tasa de error lógico deseada dada una determinada tasa de error físico requiere una gran cantidad de qubits físicos por qubit lógico. Los requisitos generales se reducen significativamente a medida que la tasa de error físico se reduce por debajo del umbral, pero es difícil imaginar que las tasas de error físico desciendan por debajo del 0.01% en el corto plazo. Se puede demostrar que con esta tasa de error físico, lograr tasas de error lógicas lo suficientemente bajas como para realizar un cálculo útil probablemente requerirá cientos de qubits físicos para cada qubit lógico, es decir, para usar el lenguaje de Freedman, al menos el 99% de los recursos aún deben dedicarse a la corrección de errores.

Ese es el estado de las cosas en la actualidad, pero vale la pena señalar que la corrección de errores es un área de investigación cada vez más activa, y no sería sorprendente si se pueden encontrar formas de reducir la sobrecarga necesaria para lograr un alto rendimiento en sistemas realizables. Además, puede ser posible desarrollar algoritmos cuánticos que puedan tolerar tasas de error lógicas modestas y aún así realizar cálculos útiles.

More Interesting

¿Se podría usar el enredo cuántico para hacer que dos o más monedas caigan siempre del mismo lado?

¿Por qué la fuerza lorentz es perpendicular?

¿Cuáles son las implicaciones del experimento de viaje en el tiempo cuántico australiano?

Si uno de los principios de la física cuántica es que una partícula está en todas partes hasta que haces un experimento y lo detectas, ¿podría esta propiedad estar relacionada con el hecho misterioso de que soy yo mismo y nadie más?

¿Por qué es necesario conciliar la física cuántica y la relatividad general?

¿Qué es el experimento del efecto fotoeléctrico y qué podemos aprender de él?

¿Es posible que la materia en el espacio tridimensional sea simplemente uno de los muchos estados de partículas multidimensionales?

¿Dónde puedo obtener una buena explicación del enredo cuántico y la tunelización?

¿Cuál es la diferencia entre una onda y una partícula?

¿Hay alguna solución posible a las causas de la rareza cuántica, como la que se ve en el experimento de doble rendija?

¿Existe un pequeño conjunto de axiomas u observaciones a partir de los cuales se sigue la mecánica cuántica?

¿Cómo traducirías el sonido en imagen? ¿O ondas mecánicas en ondas EM?

¿Cuál es la diferencia entre onda progresiva y onda estacionaria?

¿Es útil pensar en la superposición cuántica como una dimensión más?

¿Es el principio de incertidumbre de Heisenberg una propiedad intrínseca de los objetos de tamaño cuántico o simplemente una practicidad experimental?