¿Cuál es la versión cuántica de la hipótesis ergódica?

¿Cuál es la versión cuántica de la hipótesis ergódica?

Entonces, ¿la suposición de una transición rápida entre microestados es válida en Quantum Statistics?

En general, sí, con algunas restricciones sobre el tipo de sistema cuántico y espacio de estado, ciertamente hay una declaración de ergodicidad cuántica, de hecho, hay más de uno.

No diría la hipótesis ergódica clásica de la misma manera que usted lo hace; pero no difiero mucho con lo que dices. Déjame amplificar sobre esto.

En cambio, diría que un sistema hamiltoniano clásico es ergódico cuando, para casi todas las condiciones iniciales posibles, el tiempo promedio de cualquier cantidad en la distribución inicial del sistema en el espacio de fase evoluciona hacia el promedio espacial de la cantidad en una distribución microcanónica en la fase espacio a medida que el período promedio aumenta sin límite, es decir que el promedio de tiempo sobre el espacio de fase evoluciona hacia el promedio espacial de una distribución uniforme sobre una superficie de energía constante en el espacio de fase, dada la medida natural en este espacio.

Ahora hay un punto crítico que a menudo se ignora por completo en las discusiones sobre la ergodicidad clásica.

La medida que se utilizará en los promedios de tiempo no es, de hecho, la medida en la superficie de energía constante en sí, sino la medida en un pequeño volumen en una franja entre dos superficies vecinas de energía constante infinitamente cercanas.

Esto es crítico ya que dicha tira tiene una dimensión igual a la del espacio de fase en sí, mientras que las trayectorias en sí permanecen en la superficie de energía constante, que es una superficie de una dimensión menos. Entonces, la distribución microcanónica es en realidad una distribución en una superficie de menor dimensión que el espacio de fase completo.

Pero la evolución hamiltoniana preserva el volumen de espacio de fase completa según el teorema de Liouville y el volumen de espacio de fase completo es, por supuesto, la medida natural a considerar para promedios espaciales sobre conjuntos de sistemas de espacio de fase. Entonces, lo anterior es en realidad una sutileza inevitable incluso cuando se trata de la distribución microcanónica.

La noción de ergodicidad anterior es más o menos equivalente a una afirmación de que la evolución del sistema es tal que la trayectoria en el espacio de fase se aproxima arbitrariamente a todos los puntos en el espacio de fase a medida que el tiempo aumenta sin límite para casi todas las condiciones iniciales posibles, excepto posiblemente un conjunto de puntos iniciales en el espacio de fase que tiene una medida cero en la superficie de energía constante.

La hipótesis ergódica clásica dice que para un sistema que consiste en una gran cantidad de partículas que interactúan, el sistema es ergódico.

La ergodicidad es una condición suficiente para la validez de los métodos de la mecánica estadística clásica, que equivalen básicamente a reemplazar los promedios de tiempo de varias cantidades en el sistema por promedios de conjunto de un tipo u otro en el espacio de fases. Desde este enfoque, las leyes de la termodinámica son, en principio, derivables, si existe el límite termodinámico.

Suponga que en el tiempo [math] t [/ math] la posición del sistema que tiene la posición inicial [math] P_0 [/ math] en el espacio de fase viene dada por [math] P_t [/ math]. Entonces, la distribución inicial del sistema en el espacio de fase es [math] \ delta_ {P_0} [/ math], la distribución de la función delta en el espacio de fase. Hagamos una notación y una definición para promedios de tiempo de varias cantidades de la siguiente manera:

[matemáticas] \ overline {f (t)} = \ lim_ {T \ rightarrow \ infty} \ frac {1} {T} \, \ int_0 ^ T dt \, f (t) [/ math].

Por supuesto, esto solo pretende ser simbólico, el procedimiento de promedio de tiempo real que se necesita podría ser más sutil que esto.

Entonces la hipótesis ergódica sería equivalente a la afirmación de que para un sistema que consiste en una gran cantidad de partículas, tenemos:

[matemáticas] \ overline {\ delta_ {P_t}} = \ pi _ {\ text {micro}} [/ matemáticas],

para casi todas las condiciones iniciales posibles [matemática] P_0 [/ matemática], donde [matemática] \ pi _ {\ text {micro}} [/ matemática] es la distribución uniforme en una superficie de energía constante, es decir, es el Distribución microcanónica.

Mecánicamente, como dije, hay más de una noción de ergodicidad.
El primero fue desarrollado por John von Neumann, y daré una discusión extensa sobre esto que se basa en lo que se encuentra en el siguiente enlace. Todos y cada uno de los errores de comprensión son míos.

Tipicidad normal y teorema ergódico cuántico de von Neumann

Sheldon Goldstein, ∗ † Joel L. Lebowitz, Mas ‡ Christian Mastrodonato, §¶Roderich Tumulka, ∗ ∥ y Nino Zangh`ı§ ∗∗
15 de abril de 2010

http://arXiv.org e-Print archive / pdf / 0907.0108v3.pdf

En realidad, es una generalización bastante directa de la noción clásica una vez que te das cuenta de que un estado puro de un sistema cuántico es análogo a la distribución de la función delta en una superficie de energía constante para el sistema clásico relacionado. Entonces, primero se trata de la evolución mecánica cuántica para un estado puro:

[matemáticas] \ vert \ psi (t) \ rangle = \ exp (- i H t) \ vert \ psi_0 \ rangle [/ math].

Pero el espacio de Hilbert en el que se encuentra el estado requiere una caracterización adicional. Los métodos de Von Neumann funcionaron para sistemas de dimensiones finitas pero fallaron de varias maneras para sistemas de dimensiones infinitas.

Además, no es tan sensato hablar de una superficie de energía constante en el espacio de fase para un sistema cuántico que consta de muchas partículas. Esto generalmente restringiría la consideración a un subespacio muy pequeño del espacio total de Hilbert para un sistema cuántico que tenga muchas partículas.

El sistema tendrá una cantidad muy grande de partículas y, en general, una cantidad muy grande de estados propios de energía asociados con las partículas microscópicas individuales que forman el sistema. Uno restringe el subespacio del espacio completo de Hilbert para el sistema [math] \ mathcal {H} [/ math] en el que se encuentra el estado puro bajo consideración, al exigir que todos los valores propios de la energía se encuentren dentro de un rango macroscópicamente insignificante, pero en que rango, sin embargo, aún puede contener un número muy grande pero aún finito de valores propios microscópicos D, ya que el rango puede ser mucho mayor que el espacio entre los niveles de energía microscópica.

En otras palabras:

[matemáticas] D = \ text {dim} (\ mathcal {H}) [/ math].

Entonces la matriz de densidad microcanónica está dada por

[matemáticas] \ rho _ {\ text {micro}} = \ frac {1} {D} I [/ matemáticas],

o 1 / D veces el operador de identidad en [math] \ mathcal {H} [/ math], y el promedio de un observable en una distribución microcanónica está dado por su traza contra la matriz de densidad:

[math] \ mathrm {Tr} (\ rho _ {\ text {micro}} O) = \ frac {\ mathrm {Tr} (O)} {D} = \ mathcal {E} \ langle \ phi \ vert O \ vert \ phi \ rangle [/ math].

Y aquí [math] \ vert \ phi \ rangle [/ math] es un estado aleatorio distribuido uniformemente en [math] \ mathcal {H} [/ math] con unidad de magnitud, y tomamos un valor de expectativa. Con este preámbulo se puede establecer una idea de ergodicidad cuántica de la siguiente manera: para casi todos los estados puros normalizados [matemática] \ vert \ psi_0 \ rangle [/ matemática] en [matemática] \ matemática {H} [/ matemática] es cierto que

[matemáticas] \ overline {\ vert \ psi_t \ rangle \ langle \ psi_t \ vert} = \ rho _ {\ text {micro}} [/ math].

Pero en mecánica cuántica, el promedio de tiempo en el lado izquierdo se calcula fácilmente, expandiendo [math] \ vert \ psi_t \ rangle [/ math] en un conjunto de estados propios de energía que forma una base para [math] \ mathcal {H} [/matemáticas]. Asumiendo que no hay degeneración del operador hamiltoniano, el lado izquierdo se reduce a:

[matemáticas] \ overline {\ vert \ psi_t \ rangle \ langle \ psi_t \ vert} = \ sum_i \ vert c_i \ vert ^ 2 \ vert \ phi_i \ rangle \ langle \ phi_i \ vert [/ math].

Donde [math] c_i [/ ​​math] son ​​los coeficientes en la expansión. Ahora, esto obviamente daría el resultado requerido si fuera cierto que [math] \ vert c_i \ vert ^ 2 = \ frac {1} {D} [/ math] para cada i.

Pero eso no sería cierto en general, para un estado puro arbitrario.

Sin embargo, lo que von Neumann mostró fue que el espacio de Hilbert [matemático] \ matemático {H} [/ matemático], o más bien el espacio completo de Hilbert del sistema, podría descomponerse aún más en una suma directa de subespacios ortogonales correspondientes a diferentes estados macroscópicos, y que la matriz de densidad en [math] \ mathcal {H} [/ math] podría proyectarse después de un procedimiento de grano grueso en los subespacios ortogonales.

En otras palabras, podrías escribir:

[math] \ mathcal {H} = \ bigoplus_ \ mu \ mathcal {H} _ \ mu [/ math],

donde [math] \ mu [/ math] indexa los subespacios ortogonales correspondientes a diferentes estados macroscópicos, y considera la proyección de las matrices en estos subespacios por medio de los operadores de proyección [math] P_ \ mu [/ math] en los macroespacios. La suma de las dimensiones de los macroespacios [matemática] \ matemática {H} _ \ mu [/ matemática], por supuesto, tenía que ser igual a la dimensión de [matemática] \ matemática {H} [/ matemática], y podría llamar la división en macroestados por algún nombre. Von Neumann llamó a la familia un “macro observador”, lo que implica, por supuesto, que diferentes observadores podrían elegir hacer la división de manera diferente. Pero con respecto a esta división, ahora podría introducir una noción de “equivalencia macroscópica” entre dos matrices. Las matrices [math] \ rho [/ math] y [math] \ rho ‘[/ math] podrían llamarse macroscópicamente equivalentes siempre que

[math] \ mathrm {Tr} (\ rho P_ \ mu) \ simeq \ mathrm {Tr} (\ rho ‘P_ \ mu) [/ math].

En este caso, el resultado siguió que para casi todos los estados iniciales [matemática] \ vert \ psi_0 \ rangle [/ matemática] la matriz que resultó del promedio de tiempo sobre el estado puro era macroscópicamente equivalente a la matriz de densidad microcanónica, lo que significa que el promedio de tiempo se aproxima a una matriz en cada subespacio macroscópico ortogonal que es la matriz de densidad microcanónica en cada subespacio. Si [math] d_ \ mu [/ math] era la dimensión del subespacio, entonces la matriz [math] \ overline {\ vert \ psi_t \ rangle \ langle \ psi_t \ vert} [/ math] era macroscópicamente equivalente a [math ] \ rho _ {\ text {micro}} [/ math] si y solo si [math] \ vert \ vert P_ \ mu \ psi \ vert \ vert ^ 2 = \ frac {d_ \ mu} {D} [/ math ]

Esta prueba no es realmente trivial y no daré ningún detalle aquí. Una traducción de su artículo que prueba el resultado está disponible en este enlace.

Prueba del teorema ergódico y el teorema H en mecánica cuántica
Autor: J. von Neumann (Berlín) Traductor: Roderich Tumulka †
(recibido el 10 de mayo de 1929)

Página en arxiv.org

Pero debe tener en cuenta que en la literatura existe una gran confusión sobre la noción de von Neumann de la ergodicidad cuántica; muchos piensan que no es correcta, pero yo diría que esto se basa en un malentendido de lo que el teorema ergódico realmente dice lógicamente hablando .

Entonces, existe una versión de ergodicidad en la mecánica cuántica, sí.

También ha habido muchos desarrollos modernos en la ergodicidad cuántica a lo largo de otras líneas: no discutiré esto en absoluto.

More Interesting

¿Dónde puedo obtener una buena explicación del enredo cuántico y la tunelización?

¿Por qué la observación altera la naturaleza cuántica de un sistema?

¿Qué son las mecánicas rotacionales?

¿Por qué el suicidio tiene que ser parte del experimento de pensamiento de suicidio cuántico?

¿La 'observación' aumenta la entropía en la mecánica cuántica?

¿Cuál es la diferencia entre onda progresiva y onda estacionaria?

¿Qué requisitos debe cumplir una teoría de todo para ser considerada exitosa en la unificación de las fuerzas de medición, así como para conciliar la QM y la relatividad?

¿Hay algún tipo de bloques de construcción de energía?

Los resultados de Giovannini et al midieron la desaceleración de los fotones de onda plana individuales separados de su grupo en el vacío. ¿Por qué deberíamos asumir que la relación Planck-Einstein no debería aplicarse a sus resultados?

¿Cómo sería diferente la mecánica cuántica si la velocidad de la luz fuera infinita?

En el mundo real, cuando las partículas se mueven hacia diferentes potenciales, ¿con qué frecuencia son periódicas, si es que lo son?

¿Por qué la mecánica cuántica se llama la teoría más probada en la historia de la ciencia cuando sus predicciones se basan inherentemente en las probabilidades debido al principio de incertidumbre? ¿Es puramente precisión estadística?

¿Fluye el tiempo debido a la inercia que alcanzó en el Big Bang?

¿El entrelazamiento cuántico está relacionado con la inducción matemática?

¿Cuáles fueron los efectos de la mecánica cuántica en la formación de las fuerzas fundamentales?