Absolutamente y siempre se cancelan mutuamente a nivel macroscópico.
Si no lo hicieran, la física sería impredecible. Las variaciones muy pequeñas debidas a la aleatoriedad cuántica a nivel macroscópico se amplificarían en sistemas no lineales (caóticos), y ciertamente notaríamos esta imprevisibilidad.
De hecho, lo que esto significa es que no habría simetría con respecto a la traducción en el tiempo. No se puede garantizar que obtenga los mismos resultados de un experimento realizado hoy y nuevamente mañana, dado que todas las demás variables se mantuvieron constantes. Y por el hermoso Teorema de Emily Noether, eso significa que no habría conservación de la energía .
- ¿Cuál es la probabilidad de que veamos un reloj pulsar pulsar sobre un reloj atómico terrestre como el reloj más preciso del planeta?
- ¿Qué significa que no entendemos la mecánica cuántica?
- Si el universo y la mecánica cuántica no fueran realmente aleatorios en su núcleo, ¿no significaría eso que el universo podría ser comprimido y, por lo tanto, no sería realmente la representación más eficiente de sí mismo? ¿No implica esto que el universo debe ser aleatorio en su núcleo?
- ¿De qué manera la interpretación de Copenhague de la mecánica cuántica es incompleta, incorrecta o insatisfactoria?
- ¿Cuáles son las diferencias entre la mecánica / física clásica y cuántica elaborada con ecuaciones?
Esta verdad tiene varias consecuencias muy interesantes. Obviamente, cuando hacemos experimentos a nivel cuántico, tenemos que interpretar la simetría de la traducción del tiempo de forma probabilística. Si realiza un experimento con unas pocas partículas que atraviesan una rendija, sus resultados reales diferirán de una prueba a otra, pero las probabilidades se conservarán.
Y la consecuencia apenas reconocida de eso es que la interpretación de muchos mundos de QM se vuelve casi impotente. No hay división del universo en diferentes versiones macroscópicas a menos que estemos jugando con experimentos a nivel de QM, y en esos casos, realmente no nos importa. Si persiste con la idea de que no hay un “colapso de la función de onda” porque se realizan todos los resultados posibles, y luego agrega el hecho de que la suma de todas estas posibilidades conjuntas casi infinitas es siempre el mismo resultado determinado, obtendrá una teoría muy extraña que esencialmente dice que el universo tiene un conjunto de reglas increíblemente extrañas que existen solo para explicar los resultados microscópicos ligeramente extraños de los experimentos de QM.
Entonces, MWI dice que ordinariamente, el universo evoluciona de manera determinista, y permanece unitario, y no hay ningún hecho sobre qué probabilidades cuánticas se realizaron porque no tenemos forma de saber cuáles eran y no hay razón para preocuparnos. ¡Y eso es realmente razonable! Pero luego dice que si envía una sola partícula a través de una ranura, el universo se divide en una inmensa cantidad de universos, siendo el número específico una función de la máxima precisión alcanzable (dentro de los límites del principio de incertidumbre) por un ideal hipotético futuro. aparato de medición, y que cada uno de estos universos tiene una “medida de la realidad” asociada, correspondiente a la probabilidad de ese resultado experimental. Ejecuta otra partícula y los universos se multiplican. ¡Sin embargo, corra suficientes partículas, y de repente son todas idénticas nuevamente! (Es decir, un haz de partículas siempre produce el mismo patrón de interferencia, sin rastro de aleatoriedad).
¿Seriamente? El MWI fue realmente inventado por una sola razón: para resolver la paradoja del gato de Schrodinger, un experimento mental que produce dos estados macroscópicos, cada uno con un 50% de probabilidad. La gente olvida que Einstein (cuya idea era originalmente) y Schrodinger pretendían que fuera una reductio ad absurdum , una demostración de que había algo muy mal con cualquier interpretación de QM donde había un colapso aleatorio real basado en la observación o la medición.