¿Se puede aplicar el análisis real / la teoría de la medida a la física al igual que la teoría del grupo se puede aplicar a las ciencias físicas? ¿Si es así, cómo?

Sí, se puede aplicar y se aplicó, particularmente en la mecánica cuántica.

Primero, todo el análisis funcional que necesita para QM hace un uso extensivo de estos temas. Además, lo utiliza en combinación con la teoría de grupos (por ejemplo, la medida de Haar y otras medidas invariantes) para obtener resultados sobre representaciones, etc. Un teorema muy importante es el teorema de la imprimitividad. El estudio de sistemas concretos en QM (no relativista y relativista) a través de grupos puede desarrollarse como una aplicación de este teorema. Ver “Geometría de la teoría cuántica” de Varadarajan.

Pero el uso físico directo más interesante es, en mi opinión, en el llamado enfoque “Lógica Cuántica” para la formalización de QM.

Como saben, una teoría de probabilidad clásica es solo una medida de probabilidad v en algún espacio de medida, los elementos del álgebra sigma son los eventos E. La probabilidad del evento E es solo el número obtenido de la medida particularizada o que actúa sobre este elemento: “probabilidad de E” = v (E). En física clásica, siempre que hablamos de probabilidades, siempre hay una de estas teorías de probabilidad clásicas en el fondo. En particular, para un sistema clásico con una descripción hamiltoniana, el espacio de medida es solo espacio de fase, los eventos son las posibles proposiciones de sí-no sobre el sistema, por ejemplo, “el momento del sistema es p = 4” (ahora tome el subconjunto de puntos de espacio de fase en el que estas proposiciones son verdaderas y de esta manera se obtiene una identificación entre proposiciones y subconjuntos de espacio de fase que pertenecen a su álgebra borel sigma). Un estado probabilístico S es solo una medida de probabilidad en este espacio. Claramente, su interpretación física es que le da la probabilidad de que, en ese estado, la proposición P sea verdadera. La probabilidad se calcula como S (P) (pruébelo para S igual a una medida de Dirac asociada a un punto de espacio de fase). Observe que el espacio de fases admite las medidas de Dirac como estados probabilísticos. Para estos estados de medida de Dirac, todas las proposiciones tienen una probabilidad binaria de 1 o 0 y el estado se identifica con el punto del espacio de fase.

Ahora, uno puede formar las proposiciones físicas “P AND Q” y “P OR Q”. Estas conexiones lógicas corresponden al conjunto de operaciones teóricas intersección y unión, respectivamente, en nuestra identificación de proposiciones como subconjuntos. Este sistema tiene una estructura matemática interesante. Si define como orden parcial la inclusión del conjunto, entonces el álgebra sigma se convierte en una red , donde las operaciones de red “y” y “o” corresponden a las operaciones de conjunto mencionadas y también a las conexiones lógicas físicas (tenga en cuenta que, incluso cuando están identificado aquí, hago una distinción entre el AND físico y la operación de celosía, y esto quedará claro más adelante). Aún más, es un tipo de red muy especial: un álgebra booleana, es decir, la siguiente propiedad distributiva es válida: [P o (Q y R)] = [(P o Q) y (P o R)].

Se puede demostrar que cada álgebra booleana abstracta (es decir, la red distributiva abstracta; en realidad, uno necesita más propiedades para definir un álgebra booleana, pero dejemos de lado los tecnicismos) puede realizarse como un álgebra concreta de conjuntos.

Ahora, generalicemos el concepto de medida de probabilidad: una medida de probabilidad clásica será para nosotros una medida en algún álgebra booleana abstracta.

Pero todo nuestro sistema se desmorona cuando consideramos los sistemas cuánticos. Sabemos que para los sistemas cuánticos, existen proposiciones incompatibles, es decir, proposiciones para las cuales no tiene sentido pedir su valor de verdad simultáneamente. Por ejemplo, la siguiente proposición no tiene sentido físico para una partícula cuántica: P = (“la posición de la partícula es x = 5” Y “su momento es p = 3”). El problema con nuestro sistema anterior es que solo admite proposiciones compatibles, para las cuales el AND físico siempre está bien definido.

Entonces, ¿cómo describimos matemáticamente un sistema cuántico? La brillante idea de John von Neumann fue la siguiente. Considere un espacio complejo de Hilbert. Ahora, se puede demostrar que el conjunto de proyectores ortogonales en este espacio de Hilbert forma una red bajo cierta relación de orden ( esta red no es distributiva ). Además, si restringimos las operaciones de red a un conjunto de proyectores de conmutación máxima, obtenemos un álgebra booleana. Entonces, la idea de von Neumann es la siguiente: cada sistema físico ha asociado una red de proposiciones sí-no; en física clásica, este enrejado es un álgebra booleana; en mecánica cuántica, es la red no distributiva de los proyectores ortogonales en algún espacio complejo de Hilbert, es decir, hay una correspondencia 1-1 entre proposiciones y proyectores; las proposiciones compatibles corresponden a proyectores de conmutación, las proposiciones incompatibles corresponden a proyectores que no conmutan; para proposiciones compatibles, los AND y OR físicos están bien definidos y corresponden a la red “y” y “o” (no hacemos una interpretación física para las operaciones de red cuando las proposiciones son incompatibles, ya que los conectivos físicos ni siquiera están bien definido). Por lo tanto: clásico es distributivo, mientras que cuántico no es distributivo, ese es el único hecho no trivial. En un teorema muy poderoso basado en los resultados de Piron, Soler pudo demostrar tan recientemente como en la década de 1990 que si modelamos sistemas cuánticos a través de una red no distributiva abstracta que satisface algunas condiciones físicas razonables, entonces tiene que ser isomorfo a celosía de proyectores orhogonales en un espacio de Hilbert que puede ser: real, compleja o cuaterniónica. Entonces, recuperamos el postulado de von Neumann y los espacios de Hilbert hacen su aparición de forma natural, no se postula.

Entonces, tenemos nuestra red cuántica. El siguiente paso es definir estados probabilísticos. La definición es obvia: una medida de probabilidad pero ahora en la red cuántica no distributiva. Entonces, hicimos una generalización de la teoría de la medida y la teoría de la probabilidad, que se llama “teoría de la medida cuántica” o “teoría de la probabilidad cuántica”. La interpretación física es la misma: S (P) (donde P es ahora un proyector) representa la probabilidad de que la proposición P sea verdadera en el estado S.

Finalmente, el resultado clave que hace que todo este sistema sea notable y significativo: el teorema de Gleason. Este teorema establece que estas medidas de probabilidad cuántica solo pueden tener la forma S (P) = tr (TP), para todo P, donde T es un operador de clase de traza positiva de la traza 1, es decir, T es justo lo que los físicos llaman ” matriz de densidad “y la probabilidad S (P) se calcula a través de la regla de Born (si trabaja solo con estados puros, es decir, los elementos extremos del espacio convexo de los estados T, entonces la fórmula anterior con la traza se reduce a la familiar Regla nacida de los manuales elementales de QM). Pero, en nuestro sistema, estas declaraciones se obtienen como teoremas, no postulados .

Un corolario fácil del teorema de Gleason es el teorema de Kochen-Specker, que establece que, a diferencia de la probabilidad clásica, el sistema cuántico no admite medidas de probabilidad cuántica cuyos únicos valores posibles son 1 o 0 (como las medidas de Dirac). En este sentido, solo nos quedan estados probabilísticos verdaderos, y solo podemos predecir probabilidades (no cero pero estrictamente menos de 1 para al menos una proposición).

Históricamente, este enfoque comenzó con von Neumann en la década de 1930 (en particular, el reconocimiento de la red cuántica y el papel de los proyectores); luego fue continuado por el matemático George Mackey, quien desarrolló el punto de vista de las medidas cuánticas como estados en los años 40; finalmente, Gleason demostró su importante teorema en los años 50; El paso final fue el trabajo de Piron de los años 60 que culminó con el teorema de Soler de los años 90.

Ahora que finalmente está completo, es, en mi opinión, la formulación matemática más profunda de QM que tenemos (al menos para los sistemas básicos, si vas a QFT, necesitas el enfoque algebraico para lidiar con representaciones no equivalentes de la álgebra C * del campo cuántico; pero en una construcción GNS, recuperamos el enfoque reticular).

Sí, la mecánica estadística hace un uso extensivo de los espacios de probabilidad y la disciplina del análisis real aplicada a los sistemas físicos.