Las preocupaciones de Feynman se debieron por completo al procedimiento de renormalización * en electrodinámica cuántica. No tienen nada que ver con la coherencia con la relatividad especial. Si lees solo una oración a cada lado de tus dos citas, lo deja muy claro. No estaba solo en esta preocupación. Otros, incluidos Dirac y Dyson, estuvieron de acuerdo con él.
En términos generales, la renormalización es un procedimiento en el que observamos las correcciones que se realizarían al considerar nuestros cálculos con un “límite” establecido en diferentes escalas, y luego exigir que la escala en la que establecemos este límite no se realice Una diferencia en el resultado. Este proceso hace posible el cálculo, ya que conduce a la cancelación de muchos términos incómodos, eliminando infinitos que de otro modo explotarían las teorías.
En 1965, la renormalisability se vio un proceso de selección de teorías. Elegimos aquellos que eran renormables, y parecía llevarnos a teorías que funcionaron (y, de hecho, con las que podríamos calcular). Nadie sabía realmente por qué, y el proceso en sí mismo era bastante sospechoso (de hecho, “durísimo” como lo llamaba Feynman), pero no había otra alternativa: un cálculo directo llevó a la aparición de infinitos.
- ¿Cuáles son algunos de los mejores logros de Steven Chu como Secretario de Energía?
- ¿Cuál es el propósito de contratar físicos en los fondos de cobertura?
- ¿Crees que Richard Feynman tenía Asperger?
- ¿Por qué los físicos simplemente no definen [matemáticas] 1 kg [/ matemáticas] como [matemáticas] \ frac {c} {h} [/ matemáticas] veces la masa relativista de un fotón de longitud de onda de 1 metro?
- ¿Cuáles son algunas cosas desconocidas interesantes sobre Richard Muller?
Entonces, en 1965, creo que es justo decir que Feynman estaba insatisfecho con las teorías de campo cuántico (no desconocen) (no la mecánica cuántica en su conjunto) debido a sus preocupaciones sobre la renormalización. Nada que ver con la relatividad.
Pero ya no entendemos la renormalización de esa manera.
El avance provino de una fuente inesperada, 10 años después del discurso del Premio Nobel de Feynman. En 1975, Kenneth Wilson demostró que la renormalización podría explicar los exponentes críticos que aparecieron cerca de las transiciones de fase de segundo orden en la física de la materia condensada. (Así que no estamos hablando de electrodinámica, sino de imanes cerca de su punto Curie, el agua se acerca a su punto crítico, ese tipo de cosas). En este contexto, la renormalización tiene un significado físico definido y bien entendido. El límite se impuso a la teoría de campo efectiva, porque había un enrejado, apareciendo justo por encima de la escala atómica, donde la física de repente se vuelve muy diferente. Y, sin embargo, la teoría de campo efectiva era renormalizable porque describía características independientes de los detalles de la física por debajo de esta escala reticular. Por lo tanto, exigir renormalisability tiene sentido físico. Este trabajo le valió a Wilson su propio premio Nobel en 1982.
Esto condujo a un nuevo examen de la importancia del proceso en la física de partículas en sí. Steven Weinberg (alrededor de 1979 en adelante) dirigió una “nueva” interpretación de renormalisability. La nueva comprensión es que nos muestra que en QED y otras teorías de campo cuántico, estamos tratando con una teoría de campo efectiva , que se mantiene por encima de una escala mínima (desconocida, pero presumiblemente igual o mayor que la longitud de Planck), donde la física cambia a algunas nuevas leyes desconocidas. Entonces, ahora tenemos una red efectiva que es físicamente “real” como en los ejemplos de materia condensada, y el requisito de renormalizabilidad lo refleja.
Esta interpretación tiende a satisfacer a los físicos modernos mucho más que el enfoque histórico. No sé si satisfizo a Feynman, pero ya era bastante viejo para cuando este enfoque se generalizó, y unos 15 años después de ese discurso del Premio Nobel.
[*] Maldición, corrector ortográfico, puedo usar una “s” si quiero.