¿Puedes explicar la renormalización en física en palabras simples?

La renormalización es una técnica para lograr una mayor precisión en ciertas teorías físicas. En mecánica cuántica, se utiliza para lograr altos niveles de precisión al calcular la cantidad de masa y carga de partículas subatómicas como los protones. Usaré el protón como ejemplo.

El problema que resuelve la renormalización

En las primeras décadas del siglo XX, los físicos intentaban calcular con precisión la masa y la carga del protón utilizando la ecuación de Dirac (desarrollada por Paul Dirac en 1928). La ecuación de Dirac fue, en sí misma, una actualización de la ecuación de Schrodinger.

La dificultad en estos cálculos fue que las respuestas resultaron ser infinitas. Los físicos no consideran que “infinito” sea una respuesta precisa porque no describe nada físico. Todo lo físico es finito. Además, se sabía por mediciones tomadas durante los experimentos que, por ejemplo, la carga de un protón es finita en lugar de infinita.

Sin embargo, también se sabía que la carga medida del protón es solo aproximada. La medición está indebidamente influenciada por el comportamiento de las partículas cargadas en la vecindad del protón. Sin embargo, el físico quiere calcular la “carga desnuda” de un protón, es decir, la cantidad de carga que posee un solo protón, no modificada por las partículas circundantes.

Las partículas virtuales efímeras en el “espacio vacío” entre dos placas de metal crean el efecto Casimir. ¿Escalar? Olvídalo. Fuente de la imagen: https://sv.wikipedia.org/wiki/Ca…

Fotograma de la animación de partículas virtuales del profesor Derek Leinweber de la Universidad de Adelaida. Haga clic en el enlace para ver el video: https://www.youtube.com/watch?v=…

Desafortunadamente, el físico no puede eliminar todas las partículas circundantes porque son virtuales. Las partículas virtuales son como las partículas “reales” ordinarias, excepto que tienen una vida extremadamente corta. Entran y salen de la realidad física de lo que parece ser un espacio vacío. Aparecen y desaparecen en las fracciones más pequeñas de segundos. En todo momento, el protón cargado positivamente está rodeado por una nube de partículas virtuales, especialmente los electrones virtuales cargados negativamente que son atraídos por el protón. No hay nada que podamos hacer para separar el protón de esta nube.

Espuma de cerveza de raíz para partículas virtuales. Cita del Dr. Don Lincoln de Fermilab: “La espuma en la cabeza de la cerveza de raíz es un ambiente complicado, con burbujas que aparecen y desaparecen en una vertiginosa muestra de cambio. El espacio vacío experimenta una actividad similar, con partículas subatómicas parpadeando dentro y fuera de la existencia. Estas partículas subatómicas efímeras son reales y tienen un impacto medible en nuestro universo “. [Fuente de la imagen: https://www.fnal.gov/pub/today/a…]

Además de querer saber la carga de un protón desnudo, los físicos también querían saber que la ecuación de Dirac es correcta. Una buena verificación de la corrección sería la capacidad de calcular con precisión la carga de un protón desnudo.

Renormalización al rescate

La solución fue la renormalización. La técnica fue desarrollada por tres físicos de forma independiente: Richard Feynman, Julien Schwinger y Shinichiro Tomonaga. Compartieron el Premio Nobel por el logro en 1965. La ecuación de Dirac, tal como se actualizó mediante renormalización, se llama “electrodinámica cuántica” o “QED”. Es la versión actual de la mecánica cuántica.

En nuestro ejemplo, la carga del protón se renormaliza, primero, ingresando en la ecuación la cantidad de carga del protón medida por el experimento. La cantidad medida es una aproximación que se vuelve imprecisa por la influencia de partículas virtuales. Durante la renormalización, el físico calcula los efectos de muchas de las partículas virtuales y revisa la medición de la carga de protones en consecuencia. Poco a poco, el físico deduce los efectos de las partículas virtuales. El resultado es una aproximación mucho mejor de la carga desnuda del protón.

¿Por qué solo una aproximación? Dos problemas La primera es que QED trata sobre el comportamiento cuántico, que siempre incluye aleatoriedad. Entonces, QED calcula las probabilidades de interacciones particulares de partículas virtuales en lugar de un conjunto definido único de interacciones.

El segundo problema es que los cálculos no pueden tener en cuenta los efectos de todas las partículas virtuales. Hay una infinidad de posibles interacciones de partículas virtuales. Esta es la fuente de los infinitos que surgen de los cálculos en primer lugar. Cada interacción posible modifica el cálculo un poquito, y al agregar infinidad de modificaciones, la solución a la ecuación se convierte en infinito.

Sin embargo, en última instancia, cuando la carga del protón se renormaliza, su carga simple se puede calcular de manera extremadamente precisa y concuerda con las mediciones reales. Un ejemplo notable de la precisión de QED es el cálculo de la fuerza magnética de un electrón (llamado su “momento magnético”). Un electrón actúa como un pequeño imán. Al renormalizar, los físicos han usado computadoras para calcular la fuerza magnética del electrón a 12 decimales, alcanzando un número perfectamente igualado por mediciones experimentales.

La renormalización resulta en mayor precisión que cualquier otra teoría en física. Sin embargo, muchos físicos, incluido el propio Richard Feynman, han dicho que es una especie de trampa poner los valores medidos en las ecuaciones “a mano”. Sienten que si realmente entendieran el comportamiento cuántico, podrían calcular la masa y carga de todas las partículas. La necesidad de renormalizar QED sugiere que puede haber una teoría más profunda y fundamental del comportamiento cuántico. Esta es una de las motivaciones para trabajar en la teoría de cuerdas.

Digamos que me gustaría modelar el sol. Estás de acuerdo con eso, así que sacamos una gran resma de papel y un bolígrafo y nos ponemos a trabajar.

Nuestro primer intento es identificar cada, literalmente, cada partícula en el Sol, obteniendo exactamente su posición y momento (ignoremos todas esas cosas cuánticas por ahora), y aplicar todo lo que sabemos sobre física clásica a ese modelo. ¿Quieres saber la fuerza gravitacional en algún punto de la Tierra debido al Sol? OK, solo sumaremos cada fuerza debido a cada partícula, y obtendremos nuestra respuesta. De hecho, nuestra respuesta depende del tiempo y cambia después de cada incremento arbitrariamente pequeño en el tiempo, porque estamos rastreando todas las partículas que se desplazan en todo momento.

Excelente. Con este modelo, podría rastrear cambios arbitrariamente pequeños en la fuerza gravitacional en algún punto de la Tierra con precisión arbitraria. Obviamente, el primer problema es que tal modelo sería imposible de construir. Debería realizar un seguimiento de las partículas [matemáticas] \ sim 10 ^ {50} [/ matemáticas] a [matemáticas] 10 ^ {60} [/ matemáticas] y modelar continuamente sus interacciones entre sí.

Pero hay un problema aún mayor. Supongamos que quisiéramos medir la fuerza gravitacional en algún punto particular dentro del Sol. Uno pensaría que podríamos hacer lo mismo que en la Tierra, y podemos hacerlo, pero debido a que hay una tonelada de partículas volando, siempre es posible que una partícula se acerque arbitrariamente al punto de interés. La fuerza gravitacional se escala como [matemática] 1 / r ^ 2 [/ matemática], por lo que cada vez que se acerca una partícula, la fuerza aumenta a un valor increíblemente grande, y en escalas de tiempo cortas obtenemos fluctuaciones salvajes en la fuerza, y estas fluctuaciones pueden ser arbitrariamente grande, aunque sea por poco tiempo. En este punto, también deberíamos comenzar a preocuparnos por los supuestos de nuestro modelo. ¿Qué tan seguros estamos de que a escalas pequeñas se aplican la física clásica y la ley del cuadrado inverso? ¿Qué tan en serio debemos tomar estos picos?

Por supuesto, sabemos que no estamos condenados en nuestros esfuerzos por construir un modelo del Sol. Sabemos que en la Tierra, podemos aproximar la totalidad del Sol por un número y un vector 3: su masa total y la ubicación de su centro de masa. ¿Por qué? Debido a que no nos importan las variaciones de fuerza gravitacional diminutas en una escala de tiempo de femtosegundos, y no es importante saber exactamente dónde está cada partícula en el Sol hasta un nanómetro, o incluso si el Sol es exactamente esférico o no. Nuestra escala de interés, en este caso, es mucho mayor y mucho más larga que las escalas de tiempo microscópicas. Para comprender la fuerza gravitacional del Sol en la Tierra, por ejemplo, estamos interesados ​​en los cambios de escala en el orden de minutos luz (la distancia entre la Tierra y el Sol), que es enorme en comparación con el radio del Sol. . Esto nos permite esencialmente “promediar” el comportamiento del Sol hasta el centro de masa.

Ahora, a medida que nos acercamos al Sol, algunas de estas cosas importan cada vez más. Por ejemplo, si estamos en la superficie del Sol, entonces si el Sol es perfectamente esférico o no se vuelve importante, y podríamos captar el efecto de la geometría exacta en el campo gravitacional. Necesitaríamos un modelo que sea preciso en una escala de longitud menor que antes, es decir, exacto en el orden del radio del Sol. Pero no importa con qué problema estemos lidiando, siempre tenemos cierta escala de interés, y muy por debajo de esa escala, las cosas comienzan a dejar de ser importantes. Por ejemplo, si estamos dentro del Sol y queremos conocer el campo gravitacional, entonces en escalas de tiempo largas, podemos promediar nuevamente todas las partículas, y si asumimos que el Sol es más o menos esférico, obtendríamos un Muy buena respuesta aplicando el teorema de la concha.

La lección aquí es que cada modelo depende de la escala , y que los detalles de la física a pequeña escala no influyen significativamente en la física a gran escala , permitiéndonos desacoplar la física a pequeña escala de escalas más grandes. Como hemos visto en el ejemplo anterior, tomar en serio la física a pequeña escala puede conducir a grandes fluctuaciones en escalas de tiempo pequeñas. Frecuentemente tampoco tenemos idea de cuál debería ser la física correcta a pequeña escala, lo que lleva a resultados desastrosos cuando intentamos extrapolar la física a una escala hasta escalas infinitamente pequeñas. Esta es la razón para obtener infinitos en los cálculos de la teoría de campo cuántico. Pero todas estas preocupaciones oscurecen el hecho de que deberíamos poder obtener respuestas sensatas a gran escala si entendemos la física a gran escala , al igual que cómo podemos tener un valor significativo para el campo gravitacional en la Tierra sin preocuparnos por la pequeña escala. física del sol.

La renormalización es simplemente el procedimiento de moverse sistemáticamente entre escalas. Esto nos permite eliminar los efectos de la física a pequeña escala cuando simplemente estamos interesados ​​en una respuesta “promediada” a gran escala, o descubrir cómo cambian los observables a medida que exploramos escalas cada vez más pequeñas. Eso es realmente todo lo que hay que hacer.

Digamos que tiene una cuadrícula de puntos y cada punto se asigna aleatoriamente a ser de metal (conductor) o dieléctrico (no conductor).

Esta cuadrícula representa una colección de gotas de metal esparcidas al azar en la superficie de un trozo de vidrio.

Si arrojas algo de luz sobre esta película dieléctrica de metal al azar, las corrientes eléctricas se excitarán dentro de los granos de metal. Esta excitación es descrita por la teoría de Drude.

Si la longitud de onda de la luz incidente es mayor que el diámetro de los granos metálicos, las corrientes intentarán fluir entre los granos metálicos y la teoría de Drude ya no funcionará.

Si la longitud de onda de la luz es mayor que el tamaño de la red, la corriente intentará fluir de un lado a otro y se concentrará en los cuellos de botella que conectan los diferentes puntos de la red.

En estos cuellos de botella, los campos eléctricos y magnéticos se volverán muy intensos y si desea calcular cuáles serán esos campos para diferentes amplitudes y longitudes de onda de luz, debe usar la renormalización.

En una técnica de renormalización en el espacio real, aplica un voltaje a cada segmento de la cuadrícula. Este voltaje representa la amplitud de una onda de luz. Luego calcula el voltaje promedio sobre un segmento ligeramente más grande de la red utilizando un circuito eléctrico llamado puente de Wheatstone.

Después de hacer esto para cada subsegmento de la cuadrícula, repita el procedimiento para subsegmentos aún más grandes de la cuadrícula. Repita esto hasta que haya calculado el voltaje promedio para toda la red.

De Leo Kadanoff, el chico del grupo de renormalización, 1966.

Ahora invierta el procedimiento para resolver las corrientes que se excitarán en cada grano individual de metal para diferentes longitudes de onda de luz. A partir de las corrientes locales, puede calcular los campos eléctricos y magnéticos locales.

Todo esto es clásico, pero la teoría predice mejoras de campo locales discretas y enormes que pueden volverse no físicas a menos que se agregue algún tipo de proceso de amortiguación o radiación no lineal al modelo.

Algo similar a esto podría combinarse con las ecuaciones del gravitoelectromagnetismo y aplicarse a los sistemas de estrellas o galaxias para los que desea conocer los campos gravitacionales locales. Sin embargo, las cosas se vuelven más complicadas cuando pasas de una película bidimensional a 3 dimensiones espaciales. Un caminante aleatorio en 2D regresa al origen un número infinito de veces en un número infinito de pasos, pero en 3D, se aleja y nunca regresa.

Este es solo uno de los muchos tipos de renormalización y es un poco diferente de la renormalización de la que a menudo escuchan hablar los físicos de partículas cuando se quejan de los infinitos que surgen cuando intentan cuantizar la gravedad. Me enteré hace 16 años de algunos documentos escritos por Sarychev y Shalaev a principios de la década de 1990. Estaba buscando información sobre la localización de la luz y tratando de entender cómo la luz podría tener un “giro” en 3D y otro “giro” en 2D. Fue mi primer ejercicio en modelar un sistema en lenguajes múltiples, distintos e igualmente verdaderos: los lenguajes de las ecuaciones, circuitos eléctricos y polarizabilidades de Maxwell. Mi campo de investigación desde entonces ha sido diferente.

El punto es que las amplitudes mecánicas cuánticas involucran integrales de bucle que contienen términos divergentes. Estas divergencias se manifiestan en casos de escalas de energía extrema, pueden ser divergencias de alta energía (ultravioleta) o de baja energía (infrarroja). Ejemplos de tales teorías son QED, QCD, gravedad cuántica linealizada, etc.

En cualquier caso, una teoría que predice amplitudes infinitas es fenomenológicamente inútil.

¡Ahora lo que no es del todo obvio es que hay una forma sistemática de mejorar este problema!

El truco consiste en agregar términos a la teoría (en particular al lagrangiano) que actúen para cancelar estas infinitas divergencias en los regímenes en los que ocurren. Dichos términos se denominan contratérminos y el proceso de eliminación de divergencias de esta manera se denomina renormalización . La terminología es apropiada evidentemente porque las amplitudes en ciertas teorías divergen, y lo que estamos tratando de hacer es domar estas divergencias para que las amplitudes resultantes se normalicen una vez más.

¡La teoría que obtenemos al final de este proceso es la teoría renormalizada y físicamente predictiva !

Debido a que los contratérmicos están construidos de tal manera que cancelan las divergencias IR o UV, entonces debe haber algo especial sobre su contribución a las amplitudes en los casos IR o UV. La ramificación de esto es que en una teoría renormalizada, los parámetros que definen la teoría cambian según las escalas de energía en las que hacemos experimentos. En particular, supongamos que tenemos una teoría con una divergencia UV, si volvemos a normalizar la teoría para dominar esta divergencia UV, entonces puede ser, por ejemplo, que una constante de acoplamiento de la teoría cambia a medida que avanzamos hacia la UV.

Este cambio en los valores físicos de los parámetros en la teoría se llama flujo de grupo de renormalización. En este lenguaje, decimos que los parámetros físicos (como las constantes de acoplamiento, masas, etc.) experimentan un flujo de grupo de renormalización.

Esta es una visión extraordinariamente hermosa y nos ha enseñado mucho sobre la descripción de los sistemas específicos del curso (donde estamos interesados ​​en obtener una descripción IR de una teoría UV). Toda la historia tiene su origen en el intento de domar las infinitas divergencias que plagan la teoría perturbativa del campo cuántico, pero también se aplican a cualquier sistema mecánico cuántico que tenga divergencias.

Evidentemente, hay algunos casos en los que una teoría no puede ser renormalizada utilizando este método. Tal teoría se llama no renormalisable. En particular, lo que sucede es que en tales casos, ¡uno necesita agregar un número infinito de contratérminos para domar las divergencias! Esto significa que la teoría no tiene poder predictivo porque, aunque podemos dominar las divergencias, ¡debemos determinar un número infinito de parámetros para generar predicciones! De hecho, el requisito para la normalización es que podemos dominar las divergencias utilizando solo un número finito de contratérminos.

Sin embargo, puede haber una trampa, incluso en el caso de teorías aparentemente no renormalizables. Lo que puede suceder es que, aunque teóricamente podríamos necesitar un número infinito de parámetros para controlar las divergencias UV, es posible que el flujo del grupo de renormalización de estos parámetros los relacione con un número finito de parámetros en el UV. Si esto es cierto, entonces realmente solo necesitamos un número finito de parámetros, después de todo, para hacer que la teoría sea finita. ¡Esto se llama seguridad asintótica!

En el caso de la teoría perturbativa del campo cuántico, la no renormalizabilidad puede diagnosticarse examinando las dimensiones de las constantes de acoplamiento . Con una constante de acoplamiento dimensional, la teoría no se puede renombrar perturbativamente. Este es el caso de la relatividad general cuantizada y linealizada, también conocida como la teoría del gravitón . ¡El hecho de que no podamos cuantificar esta teoría es parte de lo que hace que tratar de obtener una teoría de la gravedad cuántica sea tan increíblemente difícil!

Un punto de vista más general sobre la renormalización es que está estrechamente relacionado con la idea de teorías efectivas. En muchos casos en física, estamos interesados ​​en el comportamiento (relativamente) bajo de energía y de larga distancia de las teorías, que son accesibles para los experimentos. En principio, deberíamos comenzar todos nuestros cálculos desde una “teoría de todo” que contenga todas las interacciones posibles hasta energías muy altas. Los problemas con este tipo de cálculo son: a) no conocemos la “teoría de todo”, yb) incluso si lo supiéramos, no parece que debamos tener en cuenta la existencia de una masa súper alta partículas para calcular comportamientos de baja energía.

Desde el punto de vista de la teoría efectiva, no tenemos que hacer este cálculo completo. En cambio, podemos definir una teoría más simple con menos grados de libertad que tenga algunas interacciones efectivas que no estén directamente relacionadas con las interacciones de la “teoría de todo”. Entonces podemos usar la teoría más simple, siempre que la usemos para responder preguntas relacionadas con propiedades de baja energía.

La renormalización es una forma de pensar y, en algunos casos, calcular explícitamente las interacciones efectivas que son importantes para nuestra teoría efectiva. Podemos pensar en comenzar desde la “teoría de todo” y transformar gradualmente la teoría, una y otra vez, en cada paso desechando parte del comportamiento de alta energía, pero manteniendo el comportamiento de baja energía igual. Lo que encontrará es que al hacer esto, las interacciones efectivas cambiarán. Muchas de las interacciones irán hacia cero, mientras que otras seguirán siendo finitas. Si queda un pequeño número de interacciones finitas a baja energía, puede medir o calcular estas interacciones una vez, y luego usar la teoría efectiva para comprender nuevas situaciones.

Relacionado con esta idea es que la escala de energía a la que mide un parámetro puede modificar (“renormalizar”) su valor. Por ejemplo, en el modelo estándar, lo que llamamos carga del electrón es en realidad una cantidad efectiva que, en principio, está relacionada con la carga de electrones “desnuda” más una serie de interacciones aparentemente divergentes hasta una energía muy alta. Debido a esto, si mide la carga de electrones a diferentes escalas de energía, obtendrá valores diferentes. El flujo del grupo de renormalización nos dice cómo lidiar con esta situación y relacionar estas diferentes escalas de energía entre sí de manera sensata.

La renormalización también aparece en la física de la materia condensada. Por ejemplo, si mide la masa de un electrón en un semiconductor, obtendrá un valor diferente (llamado masa efectiva) que la masa de electrones aislada. Esta masa efectiva tiene en cuenta las interacciones de todos los demás electrones y núcleos con nuestro electrón elegido, incluidas cosas complicadas como la formación de enlaces.

Si solo nos interesan las propiedades de los materiales de baja energía, como la conductividad eléctrica, podemos considerar que los electrones móviles en el semiconductor son partículas efectivamente libres con masas efectivas, aunque desde un punto de vista de alta energía, los electrones están interactuando fuertemente. Pasar del punto de vista de alta energía al punto de vista de baja energía requiere renormalización de las propiedades del electrón.

Sin duda, las presentaciones convencionales de libros de texto parecen bastante dudosas. Y no quiero tener que asumir la familiaridad con la mecánica cuántica elemental, incluida la teoría de la perturbación de segundo orden, aquí. En cambio, consideremos, sin antecedentes en la teoría cuántica de campos, que al hacer problemas de física, a menudo se le pedirá que determine el valor numérico y las unidades de una variable en una ecuación. El valor numérico generalmente no es demasiado difícil de obtener.

Bueno, pero qué pasa si pregunto: ¿Cuántos milímetros hay en 20.0 pulgadas? O, más complicado: ¿cuántos átomos de hidrógeno se pueden encontrar en 45 g de amoníaco?

Y es más complicado incluso que eso, si quieres contemplar por qué los teóricos de partículas deambularon como Moisés en algún desierto, durante casi tres décadas, reflexionando sobre la llamada naturaleza fractal del espacio-tiempo.

Por lo general, pensamos que el espacio-tiempo es de cuatro dimensiones, con tres dimensiones de espacio y una dimensión de tiempo. Dije algo sobre ‘la naturaleza fractal del espacio-tiempo’, y se suponía que se trataba de la idea de que los fractales son patrones infinitamente complejos que son auto-similares en diferentes escalas. Esto es tal que ciertas propiedades matemáticas o físicas de la estructura, como el perímetro de una curva o la velocidad de flujo en un medio poroso, se comportan como si, bueno, déjenme ver … háganlo así: la idea de que la escala determina La percepción del mundo parece obvia, ¿verdad? Cuando uno examina una pintura al óleo, por ejemplo, lo que ve depende de la resolución del instrumento que usa para el examen. A resoluciones a simple vista, uno puede ver arte, quizás, pero con aumentos cada vez mayores, uno ve pigmentos, luego moléculas y átomos, y así sucesivamente. Mientras tanto, espero que esto sea familiar, pero vamos a sumergirnos y decir que en física, las teorías de la relatividad han demostrado que la posición, la orientación, el movimiento y la aceleración no se pueden definir de manera absoluta, sino solo en relación con un sistema de referencia.

Ahora, considere que podemos medir cosas como la carga y la masa de partículas al hacerlas colisionar en aceleradores de partículas. Pero si hacemos esto, sucede algo extraño e interesante: cada partícula está rodeada por una nube de partículas virtuales, y cuanto más nos golpeamos dos partículas entre sí, más profundamente vemos en esta nube. Por lo tanto, a menos que tengamos en cuenta algunas correcciones complicadas, las respuestas dependerán de cuán duro las golpeemos entre sí.

Entonces, necesitamos un método para comparar las dimensiones de las cantidades físicas que ocurren en un problema para encontrar relaciones entre las cantidades sin tener que resolver el problema por completo. Esta es una técnica de cálculo con cantidades físicas, un método de análisis matemático, cuyo objetivo es simplificar un problema al tratar solo con parámetros esenciales.

Aquí hay algunas buenas respuestas a esta pregunta, pero voy a agregar la mía, que es más técnica y se relaciona directamente con la teoría cuántica de campos.

Suponga que desea calcular la fuerza repulsiva entre dos electrones utilizando la electrodinámica cuántica. La única forma en que sabemos cómo hacer esto es mediante el uso de la teoría de perturbaciones, que es un método para calcular aproximaciones sucesivas a este proceso. La aproximación más baja viene dada por un diagrama de Feynman en el que los dos electrones intercambian un fotón virtual.

Esta es una muy buena aproximación, y reproduce la fuerza clásica de Coulomb, siempre y cuando los electrones no sean demasiado energéticos.

Luego hay correcciones cuánticas a este proceso. Por ejemplo, los electrones podrían intercambiar dos fotones virtuales. Y aquí es donde nos metemos en problemas: el diagrama de Feynman correspondiente se evalúa como una integral divergente (infinita). Podemos rastrear el origen del infinito a las contribuciones provenientes de distancias muy cortas. Podemos interpretar esto como un desglose de la teoría a distancias cortas o el desglose de la aproximación utilizada en la teoría de la perturbación. Por ejemplo, podríamos decir que a distancias muy cortas ya no podemos ignorar las contribuciones de la gravedad cuántica (lo que sea que sea eso), o podríamos decir que la división de las contribuciones en intercambios de una partícula e intercambios de partículas múltiples está mal. Cualquiera que sea la fuente, podemos intentar compensar estos efectos.

La electrodinámica cuántica tiene dos parámetros libres, la carga y la masa del electrón, que no están determinados por la teoría, sino establecidos por el experimento. Cuando comenzamos con algunos valores arbitrarios para estos parámetros, podemos seguir calculando las correcciones cuánticas a estos valores. Lo que medimos en los experimentos no son los valores originales, sino los valores completamente corregidos. Podemos imaginar que el campo eléctrico del electrón crea una nube de partículas virtuales a su alrededor. Esta nube filtra su carga y contribuye a su masa. Lo que medimos en el experimento es la carga apantallada y la masa efectiva. Es la suma de la carga / masa original y todas las correcciones cuánticas. Nuestros cálculos dan como resultado correcciones infinitas, por lo que, para obtener valores experimentales finitos, debemos suponer que los parámetros iniciales también son infinitos, pero con el signo opuesto.

Tal vez se pregunte cómo la diferencia de dos infinitos puede dar un número finito y bien definido. Hay un sistema para estos cálculos, que implica ingeniosos trucos matemáticos. Esencialmente, parametrizamos nuestra falta de conocimiento de lo que sucede a distancias cortas y luego tomamos un límite. En cada paso de la teoría de la perturbación, ajustamos o renormalizamos los dos parámetros: masa y carga para que se cancelen los infinitos. Lo sorprendente es que todos los infinitos en la electrodinámica cuántica se pueden plegar en la renormalización de estos dos parámetros.

El modelo estándar que describe todas las interacciones conocidas, excepto la gravedad, tiene muchos más parámetros libres, pero aún es renormalizable. La gravedad cuántica, por otro lado, no lo es, por lo que podemos decir.

a2a: ¿Algunas palabras simples? Ok, seguido de una explicación más larga para aquellos profundamente interesados.

La renormalización es una serie (matemáticas): Wikipedia derivada por físicos (generalmente usan solo el primer par de términos) para implementar post hoc el principio de invariancia de escala para permitir que la teoría de campo cuántico se calcule correctamente a densidades de energía cada vez más altas.

La invariancia de escala significa aproximadamente que si expandiera el tamaño del universo por algún factor k, las mismas leyes de la física aún se aplicarían, y las constantes de la naturaleza no cambiarían (¡mantenga la calma y continúe!)

Pero la invariancia de escala no es lo mismo que redefinir un “nuevo” medidor para que sea (digamos) 1.1 veces el “viejo” medidor. La gravedad newtoniana, por ejemplo, no es una teoría invariante de escala. Si duplica la distancia de la Tierra al Sol, la teoría newtoniana no predice que continuará siguiendo esa órbita escalada, porque su velocidad escalada simplemente no es correcta para esa órbita de tamaño (según la teoría newtoniana).

Tenemos muy buena evidencia de que la escala del universo se está expandiendo, y ninguna evidencia (a pesar de mirar) que las constantes físicas están cambiando con esa expansión. Así que tenemos buena evidencia de que la invariancia de escala debería ser un principio de la teoría de la física moderna. Pero no se acepta formalmente como tal (todavía).

Pero debido a la historia del desarrollo de la física moderna, a partir del descubrimiento matemático del campo potencial, la teoría física moderna no ha sido explícitamente invariante en escala. Esto no ha importado mucho porque las teorías que no son invariantes de escala son impresionantemente precisas en densidades de energía más bajas donde las correcciones de invariancia de escala son pequeñas.

La renormalización es el intento informal (en general exitoso) de corregir las teorías de campo para que sean invariantes a escala. Los físicos pueden ser un poco flojos a veces; Como el resto de nosotros, tienden a construir sobre lo que ha funcionado en el pasado. Y ha funcionado correctamente hasta el obstáculo final; el de la unificación de la ley física. Y (lo adivinó) que el último obstáculo está en las densidades de energía más altas, ¡exactamente donde los efectos de invariancia de escala se vuelven cada vez más importantes!

El problema de la unificación es entonces una carrera entre aquellos que intentan completar la suma de los términos de renormalización con suficiente precisión para predecir la unificación de todas las fuerzas en un principio de acción común (término lagrangiano), y aquellos como yo que han elegido el camino difícil: reiniciar la derivación de la física moderna utilizando la invariancia de escala como un principio fundamental adicional de la física junto con el fuerte principio de la relatividad y la naturaleza cuantificada de la energía.

El último grupo como yo tiene mucho más en qué pensar, el primer grupo tiene muchos más cálculos en las computadoras que hacer. ¡Siento curiosidad por saber quién llegará primero! De cualquier manera, estoy bastante seguro de que sucederá la unificación de la ley física.

Imagina una pelota en una tina de agua. La pelota tiene una masa intrínseca, [matemática] m [/ matemática], y siente una fuerza debido a la gravedad de [matemática] F = mg [/ matemática]. Pero también hay que considerar la flotabilidad: la bola desplaza una masa de agua [matemática] nm [/ matemática], donde [matemática] n [/ matemática] es la densidad del agua. Ese volumen de agua siente una fuerza [matemática] n V g [/ matemática], donde [matemática] V [/ matemática] es el volumen de la pelota, que trabaja para contrarrestar la gravedad. La fuerza total hacia abajo que siente la pelota es, por lo tanto,

[matemática] F = mg – n V g = (m – n V) g [/ matemática].

Entonces la pelota se mueve como si siguiera la ley de Newton, [matemática] F = ma [/ matemática], pero tiene una masa [matemática] m – n V [/ matemática] en lugar de [matemática] m [/ matemática]. En otras palabras, [matemática] m [/ matemática] es la masa “desnuda” de la pelota mientras que [matemática] m – n V [/ matemática] es su “masa efectiva”.

Suponga que desea medir la masa de la pelota observando cómo se mueve la pelota en su tina de agua, pero realmente no comprende cómo funcionan los fluidos. Luego medirás cómo se acelera con (o contra) la gravedad y concluirás que la pelota tiene una masa efectiva. Sin embargo, no sabes cuál es realmente la masa desnuda de la pelota. Pero está bien, porque una vez que medimos la masa efectiva, puedes seguir adelante y usar eso en las ecuaciones que necesites. Más interesante aún, es que podrías probar experimentos en los que hagas esto con bolas de diferentes tamaños, o bolas de diferentes densidades, o en fluidos con diferentes densidades que el agua. En ese caso, obtienes diferentes masas efectivas y, tal vez, puedas calcular cuál debe haber sido la masa desnuda una vez que has hecho suficientes experimentos. Una teoría adecuada de los fluidos podría haber ayudado con esto, pero en ausencia de uno, determinar la masa desnuda de las bolas será bastante difícil.

Eso , en pocas palabras, es renormalización, y describe el estado del arte en la teoría cuántica de campos. Por ejemplo, podemos medir la masa de, digamos, un electrón. Sabemos que esa masa no es la masa “desnuda” del electrón, pero podemos reescribir todas las ecuaciones de la física en términos de la masa efectiva. En otras palabras, solo necesitamos medir la masa efectiva de un electrón y podemos hacer todas las predicciones adicionales en términos de ese número medido. Puede usar la teoría para calcular cómo esa masa efectiva cambia con la escala a un cierto éxito, que es un poco más de lo que sabemos por mi ejemplo de bola en el agua. Al final del día, sin embargo, sabemos que nuestros cálculos realmente no pueden ser correctos porque los cálculos implican que la masa desnuda del electrón es infinita y la masa efectiva se vuelve finita porque está siendo cancelada por una corrección infinita. Pero, afortunadamente, todas las ecuaciones solo dependen de la masa efectiva, por lo que podemos proceder sin comprender todos los detalles que queremos sobre la masa desnuda.

Es un área de física fascinante, aunque muy amplia y confusa, que la mayoría de las personas desconocen. Se sabía ya en la década de 1940 que dos placas de metal paralelas sin carga manifestaban una atracción muy leve que no podía explicarse por ninguna cantidad de carga conocida en las placas, ya que las placas no tenían carga neta, ni esta gravitación estaba mediada entre tan pequeñas masas. Esto se conoce como el efecto Casimir postulado por primera vez por el físico holandés Hendrick Casimir en 1948. Se entendió en términos de “presencia de partículas virtuales” que entraban y salían de la existencia en el espacio cercano. Estas partículas tienen una vida ultra corta y reflejan electrones, protones, ya que van y vienen como ‘electrones virtuales’ y ‘protones virtuales’, pero son partículas extremadamente transitorias con cargas similares. Volveré sobre esto más adelante en el artículo para reflexionar. En la teoría del campo cuántico durante su etapa de desarrollo a fines de la década de 1940 y posteriormente, se dio cuenta de que los fermiones, como los protones y los electrones, tenían sus ‘contrapartes’ de partículas virtuales muy cerca de ellos. Esto seguramente influiría en el cálculo de masa y carga de los protones y electrones teórica y experimentalmente. Entonces, si tuviera en cuenta un posible número infinito de ‘partículas virtuales visitantes’ que influyen en un protón o un electrón, entonces los cálculos teóricos de la masa y carga reales del protón o electrón podrían llegar a infinitos, lo que plagaría los cálculos teóricos sin fin produciendo una teoría de campo cuántico no avanzable. Tenga en cuenta que estas interacciones ocurren naturalmente en todo momento, en los femtosegundos y en intervalos de tiempo aún más cortos. Una vez más, ¿por qué este fenómeno es tan frecuente con tan poco conocido? Intentaré entrar en eso más adelante en este artículo. ¡Entonces los físicos querían lidiar definitivamente con la incongruencia entre las mediciones experimentales de la masa y la carga, y las predicciones teóricas de la misma que siempre producirían este problema de encontrarse con encuentros ‘infinitos’, con todos perdiéndose totalmente! Tres físicos que hicieron un trabajo pionero aquí para dar sentido a las disparidades, y cómo hacer que la teoría de campo cuántico prediga valores más realistas que coincidan con los resultados experimentales y también ayuden a refinar ambos lados, independientemente uno del otro fueron Richard Feynman, Julien Schwinger, y Shinichiro Tomonaga, quienes fueron galardonados conjuntamente con el Premio Nobel de física en 1965 por sus inmensas contribuciones a la electrodinámica cuántica, la teoría cuántica de campos y las ‘técnicas de renormalización’ que deben acompañarlo. Los famosos diagramas de Feynman surgieron de todo esto que simplificaba brillantemente y representaba visualmente lo que sucede en el universo ultramicro de partículas … La idea no era abrumarse por las infinitas interacciones ‘partículas-partículas’ entre partículas atómicas como los electrones y protones y sus ‘contrapartes de partículas virtuales’, pero para reducir el número de variables a las ‘más importantes’ en base a la teoría y los hallazgos, y predecir teóricamente resultados que coincidirían muy estrechamente con los hallazgos experimentales. ¡Así que estos tres físicos brillantes lo resolvieron maravillosamente con un gran beneficio para la teoría del campo cuántico, y hasta tal punto que algunos de los valores teóricos se predijeron hasta 12 decimales con perfecta coincidencia con los resultados experimentales! ¡Lo más sorprendente por decir lo menos! ¡Entonces esta técnica, o más elaboradamente hablando, este grupo de técnicas llegó a llamarse ‘Renormalización’! ¿Ahora algunas reflexiones sobre cómo y por qué ‘partículas virtuales’ de protones y electrones están apareciendo y desapareciendo alrededor de sus contrapartes ‘más permanentes’? De dónde vienen ?? ¿Qué funciones sirven? Desafortunadamente, no sabemos mucho sobre esto, pero puede deberse a que los ‘bosones de Higgs’ dan lugar a estas partículas ultra transitorias con masa (y carga que aparece desde algún lugar) que hace posible que estas partículas virtuales realicen algún tipo de Funciones emparejadas de ‘vigilancia-reparación’. ¡Es casi como decir que la naturaleza está observando sus componentes atómicos y subatómicos con un suministro listo de piezas / reemplazos si fuera necesario! Esa es una forma en que he tratado de dar sentido a este fenómeno altamente enigmático que ha tenido poca o ninguna postulación en cuanto a su razón de estar allí. Sí, “simplemente sucede”, pero debería haber razones para este fenómeno natural extraordinario. Parece surgir de la supersimetría en la naturaleza para las ‘funciones de mantenimiento’ más probables … Se les llama ‘partículas virtuales’ no porque sean imaginarias, sino porque son extremadamente efímeras. ¡Son partículas reales con masa y carga! La aparición y desaparición de estas partículas virtuales con mucha frecuencia, guiñando dentro y fuera de la existencia seguirá la ecuación de interconversión de masa-energía de Einstein en todo momento, y es probable la asimilación de cualquiera de estas partículas virtuales dentro de los ‘compartimentos atómicos’ ocurre cuando es necesario, aunque es posible que no podamos detectarlo. Los bosones de Higgs recientemente descubiertos (la llamada ‘partícula de Dios’) deben representar el componente de masa para estas partículas en la creación de estas entidades de partículas fugaces. Dicho de otra manera, también se debe renormalizar alguna carga menor o cambio de masa debido al “desgaste cuántico” (¡acabo de acuñar ese término!). ¡La naturaleza puede haber proporcionado el mecanismo de esa ‘reparación de vigilancia’ a través de la providencia de estas escurridizas ‘partículas virtuales’! … Un pensamiento interesante que viene a la mente aquí es que si pudiera demostrarse que cerca de núcleos de átomos perturbados experimentalmente, ‘ las partículas virtuales ‘aumentaron en concentración y la frecuencia de ocurrencia estadísticamente muy por encima de sus números promedio ya altos, y dichos átomos perturbados experimentaron estabilización a partir de entonces, entonces las’ funciones de reparación de vigilancia ‘de las’ partículas virtuales ‘podrían tener evidencia experimental. Será casi imposible obtener dinámicamente firmas experimentales de esto como se señaló anteriormente hasta que la tecnología se expanda mucho más en el futuro para poder hacer eso … Kaiser T, MD (entusiasta de la física, las matemáticas y la ciencia de toda la vida).

Las respuestas anteriores se han centrado en los aspectos técnicos de los diferentes esquemas de renormalización. Quiero centrarme en el papel de la renormalización en la teoría cuántica.

Tomemos, por ejemplo, la electrodinámica cuántica: la descripción cuántica de las interacciones electromagnéticas entre fotones y electrones. La teoría se basa en un nivel muy profundo en la observación de que estas interacciones deben respetar ciertas simetrías. Por otro lado, la teoría contiene dos parámetros: la masa del electrón my la fuerza de la interacción a (o, si lo prefiere, la carga del electrón e).

La observación crucial es que para construir una teoría cuántica que respete la simetría requerida debemos permitir que los parámetros de la teoría dependan de la energía total involucrada en la interacción. Por ejemplo, si prueba la carga de electrones colisionando partículas a, digamos, 100 GeV y 10 TeV, encontrará que es ligeramente diferente (incluso cuando describe ambas colisiones en el marco correspondiente).

Aquí se produce la renormalización para dar las ecuaciones que describen cómo los parámetros físicos de la teoría dependen de la energía involucrada en la interacción. ¡Eso es todo!

Creo que Sin-Itiro Tomonaga dio la mejor explicación en su discurso Nobel que cito en mi libro (quantum-field-theory.net):

Después de la guerra, Tomonaga recurrió al problema que estaba desconcertando a los físicos en la década de 1940. Encontró una solución simple: simplemente reemplace los valores calculados de masa y carga, aunque sean infinitos, con los valores experimentales.

Dado que esas partes de la masa y la carga modificadas debido a reacciones de campo [se vuelven infinitas], es imposible calcularlas por la teoría. Sin embargo, la masa y la carga observadas en los experimentos no son la masa y la carga originales, sino la masa y la carga modificadas por las reacciones de campo, y son finitas. Por otro lado, la masa y la carga que aparecen en la teoría son … los valores modificados por las reacciones de campo. Dado que esto es así, y particularmente porque la teoría no puede calcular la masa y la carga modificadas, podemos adoptar el procedimiento de sustitución fenomenológica de valores experimentales … Este procedimiento se llama renormalización de masa y carga … Después de largos y laboriosos cálculos, menos hábil que el de Schwinger, obtuvimos un resultado … que estaba de acuerdo con el de los estadounidenses. – S. Tomonaga ( conferencia Nobel , 1965)

Desafortunadamente, la explicación “más hábil” de Julian Schwinger no fue bien entendida, como se muestra en el siguiente extracto de mi libro:

Schwinger pasó los años de guerra trabajando en sistemas de radar en el Laboratorio de Radiación del MIT. Después de la guerra, regresó a la “montaña” de QFT que comenzó a escalar a los 16 … Esta vez su viaje condujo a la solución de renormalización. La presentación de Schwinger de estos resultados en la reunión anual de la American Physical Society en enero de 1948 fue bien recibida:

El gran evento se produjo el sábado por la mañana, y fue una charla de una hora de Schwinger, en la que hizo una encuesta magistral de la nueva teoría que ha tenido la mayor participación en la construcción y al final hizo un anuncio dramático de un nuevo y más nuevo teoría poderosa, que todavía está en embrión. Esta charla fue tan brillante que le pidieron que la repitiera en la sesión de la tarde, varias luces menores desafortunadas fueron desplazadas a su favor. Hubo grandes aplausos cuando anunció que el experimento crucial había respaldado su teoría. – F. Dyson

En el momento de la conferencia de Pocono en marzo, Schwinger había refinado aún más su método. Aquí está el informe de CN Yang, que ilustra nuevamente la incapacidad de Schwinger para comunicar sus ideas a la comunidad física:

Fermi tomó notas voluminosas porque sabía que era un evento histórico escuchar lo que Schwinger tenía que decir. Después de que regresaron a Chicago … Fermi reunió a Teller y Wentzel y cuatro estudiantes graduados … en su oficina, y pasamos semanas tratando de digerir lo que Fermi había escrito … Después de unas seis semanas de reunirse varias veces a la semana en la oficina de Fermi para algo así como dos horas cada sesión estábamos todos muy cansados, y ninguno de nosotros sentía que habíamos entendido lo que Schwinger había hecho. Solo sabíamos que Schwinger había hecho algo brillante. – CN Yang

Hay un problema en la física que tiene que ver con la gran variación en las escalas entre lo muy grande y lo muy pequeño. Este problema de escalas involucra no solo el tamaño y la masa de las cosas, sino también fuerzas e interacciones.

El filósofo Robert Pirsig creía que el número de posibles explicaciones que los científicos podían inventar para el fenómeno eran, de hecho, ilimitadas. A pesar de todas las matemáticas y todas las complicaciones de las matemáticas, Pirsig creía que algo misterioso e intangible como la calidad o la moralidad guiaba nuestras explicaciones del mundo. Lo volvió loco, al menos en los años antes de que escribiera su libro clásico, Zen y el arte del mantenimiento de motocicletas.

De todos modos, la última generación de científicos no se avergüenza de las anomalías. Se han enseñado a sí mismos a “callar y calcular”. Los saltos mortales digitales que deben realizar para validar su trabajo son imposibles de entender para la gente promedio, y mucho menos para realizar. Los investigadores determinan escalas, introducen “puntos de corte” y extraen la física adecuada para hacer correspondencias adecuadas con sus resultados experimentales. Los trucos utilizados por los físicos para concentrarse en piezas de un problema donde se pueden encontrar respuestas sensatas tienen muchos nombres, pero la renormalización es una de las más conocidas.

Cuando los físicos renormalizan una ecuación, cortan infinitos y otros problemas molestos (como dividir por cero). Centran el alcance de su atención en espacios más pequeños donde las vastas diferencias en escalas y fuerzas no explotan sus fórmulas e interrumpen combinaciones putativas de sus matemáticas cuidadosamente elaboradas y el mundo de las observaciones reales.

Es posible que los cerebros de los humanos, que usan el lenguaje y las matemáticas para reflexionar y explicar el mundo, no estén suficientemente estructurados para modelar las complejidades del universo. No estamos conectados con suficiente potencia para crear los algoritmos para una comprensión final.

He escrito sobre el problema de la ciencia y la falta de coincidencia del formalismo con los resultados experimentales. Lea el ensayo, RENORMALIZACIÓN, en el sitio web BillyLeePontificator para obtener más información.

Por lo general, esto se refiere a la cirugía topológica en objetos matemáticos que incluyen infinitos como un artefacto de las matemáticas. Entonces, supongamos que calcula las matemáticas en una cromodinámica cuántica y descubre que uno de los campos incluye un infinito. No observamos eso en el mundo real, y esto complica el cálculo. Por lo tanto, puede eliminar esa área de la variedad para que sea agradable trabajar y sea coherente con la naturaleza.

La mayor parte de esto se debe a suposiciones sobre partículas (puntos en el espacio matemáticamente).

Déjame explicarte en términos de un ejemplo específico.

Tomemos un bloque de algunas cosas. Supongamos que consta de un montón de átomos con átomos adyacentes conectados por resortes.

Ahora, veamos dos puntos distantes. Podemos pretender que estos están conectados por un resorte efectivo , en función de lo difícil que es juntar esos puntos distantes, y preguntar: ¿cuál es esa constante efectiva del resorte? ¿Qué tan “rígido” es ese resorte efectivo (en relación con los resortes originales), suponiendo que esté * muy * lejos?

Bueno, depende del número de dimensiones de las cosas.

  • Si acaba de obtener una línea unidimensional de átomos (y tenga en cuenta que estamos fingiendo que no puede doblarse hacia los lados), entonces esa constante de resorte será increíblemente pequeña, esencialmente cero, para puntos muy distantes.
  • Si está en dos dimensiones (por ejemplo, grafeno), entonces tendrá aproximadamente la misma fuerza que el resorte original [lo que hace que esto sea conforme o invariante a escala ».
  • Si tiene tres [o más] dimensiones, entonces el resorte efectivo es mucho más rígido que el resorte original.

Entonces: en 3-d, los objetos grandes son difíciles; en 2-d, es casi tan difícil apretar objetos grandes con un átomo como objetos pequeños; y en 1-d, es increíblemente fácil exprimir objetos por un átomo.


Ahora: ¿cómo sabemos esto?

Supongamos que nuestros puntos se presentan en una red. Ahora: intentemos calcular explícitamente la constante de resorte efectiva de puntos a una distancia de dos , en términos de la constante de resorte para puntos a una distancia de uno (lo que llamaré [math] k [/ math]).

Algunas físicas básicas (combinando resortes) revelan que la constante de resorte conocida es [matemáticas] 2 ^ {d-2} k [/ matemáticas], en dimensiones [matemáticas] d [/ matemáticas]. Entonces: en 1-d, es la mitad; en 2-d, es lo mismo; y en 3-d, es doble.

Ahora: ¿qué sucede cuando vamos a puntos a cuatro átomos de distancia? ¿Podemos calcular esta constante de resorte efectiva?

Bueno, claro, podríamos hacer esto explícitamente, pero hay una mejor idea. Calculemos una constante de resorte “efectiva efectiva”; es decir, calculemos esto en términos de la constante de resorte efectiva [matemáticas] 2 ^ {d-2} k [/ matemáticas] que calculamos antes.

¡En realidad es el mismo problema! ¡Podemos tratar los átomos a cuatro como una red de átomos a dos con una constante de resorte de [matemáticas] 2 ^ {d-2} k [/ matemáticas], si queremos! Eso significa que la nueva constante de resorte es [matemática] 2 ^ {d-2} (2 ^ {d-2} k) = 2 ^ {2 (d-2)} k [/ matemática].

Bueno, ahora consideremos después de duplicar [matemáticas] n [/ matemáticas]. Terminas con [matemáticas] 2 ^ {n (d-2)} k [/ matemáticas]. (En términos más generales, si alejas [matemática] N [/ matemática] átomos, terminas con [matemática] N ^ {d-2} k [/ matemática].)

¡Excelente! Hemos calculado nuestra constante de resorte efectiva. Ahora, para objetos grandes, suponemos que [math] n [/ math] (o, más adecuadamente, [math] N [/ math]) será bastante (muy) grande. Eso significa que si [matemática] d> 2 [/ matemática] estamos multiplicando [matemática] k [/ matemática] por un número muy grande, y si [matemática] d <2 [/ matemática] estamos multiplicando [matemática] k [/ math] por un número muy pequeño. Si [matemática] d = 2 [/ matemática] entonces tenemos la misma [matemática] k [/ matemática] (aunque tal vez estamos haciendo una aproximación que se descompone en alguna parte).


Este procedimiento de iteraciones repetidas es una gran idea para usar en física estadística, para relacionar las escalas “fundamentales” con las grandes escalas “efectivas”.

En general, solo relaciona física efectiva a diferentes escalas. Esto se hace no solo (también) en mecánica estadística, sino también en física de partículas, en la que se puede suponer que todos los modelos son efectivos hasta que se indique lo contrario.

Por supuesto, eso requiere algunas modificaciones a nuestra idea: en particular, obtienes un conjunto continuo de posible “número de átomos de distancia”; Esto lleva a, en lugar de “pasos repetidos”, más de un “flujo” continuo, llamado flujo RG o flujo de grupo de renormalización . [Este flujo está modelado por una ecuación diferencial.]

Sin embargo, la idea esencial sigue siendo la misma: ¿cómo relaciona la física a diferentes escalas?

Consideremos un caso simple de electrodinámica cuántica: electrones que interactúan con fotones.

Tiene a mano una teoría que contiene algunos parámetros de entrada desde los que debe comenzar. Resulta que en la electrodinámica cuántica necesita dos parámetros de entrada y puede elegir los dos que desee. La opción estándar es el parámetro de masa m_0 y el parámetro de “carga” e_0. Estos NO son masa observable y constante de acoplamiento.

Usando reglas teóricas, expresas dos observables, A y B, en términos de m_0 y e_0, tienes dos ecuaciones: A = A (m_0, e_0) y B = B (m_0, e_0). A y B pueden ser dos observables, generalmente elegidos 0.5 MeV y 1/137, números FINITOS.

Luego, expresa m_0 y e_0 en términos de A y B, es decir, tienes dos relaciones e0 = e0 (A, B) y m0 = m0 (A, B). Por lo general, esto se hace en términos de teoría de perturbación, es decir, expansión en serie.

Ahora, en la expresión para CUALQUIER otra variable C, calculada en términos de m_0 y e_0, C = C (m_0, e_0) en lugar de m_0 y e_0, conecte e0 = e0 (A, B) y m0 = m0 (A, B) que da como resultado la expresión de C observable en términos de observables A y B:

C = C (A (m_0, e_0), B (m_0, e_0))

Esto, expresar observables en términos de otros observables es el programa de renormalización, adivinado por Heisenberg, Pauli, Feynman, Tomonaga y finalmente claramente formulado por Freeman Dyson.

Este enfoque es el mismo si hay infinitos en los cálculos o no.

Más tarde, cuando las personas pasaron de observables a no observables, por ejemplo, las funciones de Green, el procedimiento y el significado han cambiado, diría difuminado.

En mecánica cuántica – Wikipedia se analizan las partículas elementales en matemáticas. como las llamadas Partículas puntuales con cero extensión. Como resultado directo, las partículas analizadas pueden alcanzarse entre sí hasta una distancia cero. Esto da como resultado infinitos en el llamado Propagador – Wikipedia de partículas elementales.

Sin embargo, cuando se vuelve a escribir QM compatible con el CAP, resulta lógico que todas las partículas fundamentales analizadas se analicen con tamaños distintos de cero.

Esto explica de inmediato nuestra Hermosa Realidad (¡por favor lea completamente!) Con Partículas Fundamentales extendidas, que no requieren matemáticas. llamada “re-normalización”!

Las partículas elementales deben analizarse de acuerdo con CAP como: matemática oscilante armónica ideal . Ondas de punto en el plano 2D perpendicular a la dirección de movimiento (SR-línea de mundo) con condiciones de límite CAP -dual abierto o cerrado- con una extensión media descrita en el marco inercial con origen que se mueve con la partícula oscilante en su posición promedio (en la dirección z positiva):

2 = rho (max) + rho (min) = 3/2 rho (max) = 3 rho (min) = sx Proporción dorada – Wikipedia x longitud de Planck – Wikipedia,

con s el giro no conservado CAP- doble medio entero conservado s = {1/2, 3/2} de fermiones elementales o CAP- doble entero conservado giro x = {1,2} de bosones elementales (generalmente multiplicado por h -bar, pero esta constante era necesaria para terminar con la longitud de Planck como constante de proporcionalidad).

La re-normalización solo se requiere cuando las partículas puntuales analizadas pueden alcanzarse entre sí hasta una distancia cero. Por supuesto, no se permite que las partículas elementales que cumplan con el CAP real alcancen entre sí hasta distancias cero, pero se mantienen separadas unas de otras regidas por la longitud mínima de Planck: Wikipedia.

En la teoría cuántica de campos, la mecánica estadística de los campos y la teoría de las estructuras geométricas auto-similares, la renormalización es una colección de técnicas utilizadas para tratar infinitos que surgen en cantidades calculadas alterando los valores de las cantidades para compensar los efectos de sus auto-interacciones.

Por ejemplo, una teoría del electrón puede comenzar postulando una masa y una carga. Sin embargo, en la teoría del campo cuántico, este electrón está rodeado por una nube de posibilidades de otras partículas virtuales, como los fotones, que interactúan con el electrón original. Tener en cuenta estas interacciones muestra que, de hecho, el sistema electrónico se comporta como si tuviera una masa y una carga diferentes. La renormalización reemplaza la masa y la carga originalmente postuladas con nuevos números de modo que la masa y la carga observadas coincidan con las originalmente postuladas.

En la teoría del campo cuántico, hay muchas energías infinitas. La renormalización es un método para deshacerse de ellos.

Estos infinitos no se originan en la mecánica cuántica, sino en el concepto de partículas puntuales. La energía de campo clásica de una carga puntual es infinita. La solución es darle al electrón un radio. (radio de electrones clásico). Estos infinitos no desaparecen cuando se pasa de la física clásica a la mecánica cuántica.

Digamos que tenemos una partícula cuántica en el espacio vectorial complejo bidimensional [math] \ alpha | 0> + \ beta | 1> [/ math]. Entonces, la renormalización del vector simplemente redistribuiría este vector de vuelta a un estado de base computacional de [matemática] | 0> [/ matemática] o [matemática] | 1> [/ matemática], lo que significa que el vector se ha normalizado de nuevo a los ejes del espacio vectorial.

More Interesting

¿Cómo se mide la constante gravitacional? ¿Es realmente una constante?

¿Por qué la biología no es física?

¿Cuál es el significado físico de considerar el tiempo como una dimensión (específicamente en el contexto del espacio-tiempo y como una cuarta dimensión)?

¿Por qué se usa el agua del océano en reactores nucleares?

¿Cuánta energía tendría que emitir un rayo láser para empujar una pieza de desechos espaciales (digamos 2 cm de diámetro, una masa de aproximadamente 4 gramos) para que se desorbitara?

"La luz es una forma de ondas electromagnéticas, por lo tanto, todos los demás tipos de ondas electromagnéticas viajan en línea recta". ¿Es correcta esta suposición?

¿Cuáles son las implicaciones para los no científicos si se encontrara el bosón de Higgs?

Si un automóvil viaja tan rápido como un avión, ¿tendrá la velocidad suficiente para viajar sobre cuerpos de agua sin hundirse?

¿Qué sucederá si los polos magnéticos de la Tierra se invierten? ¿Tendremos una catástrofe en nuestras manos?

Si los átomos emiten radiación de manera cuántica (solo ciertos niveles de energía / longitudes de onda) ¿por qué existe el espectro completo?

¿Por qué escucho sonidos de salpicaduras de las olas cuando cierro los oídos con una taza?

¿Qué sucederá cuando calientemos la materia a miles de millones de Kelvin y millones de pascales (presión atmosférica)?

¿Qué puede decir sobre el campo magnético que produce una carga puntual positiva que se mueve directamente hacia un punto P en el punto P?

¿Qué es 2S?

¿Cuál es el coeficiente de fricción mu? ¿Cómo se mide?