Contenido Checked

Renormalización

Temas relacionados: Física

Antecedentes

Esta selección Wikipedia está disponible sin conexión de SOS Children para su distribución en el mundo en desarrollo. patrocinio SOS Niño es cool!

En la teoría cuántica de campo , los mecánicos estadísticos de los campos, y la teoría de estructuras geométricas auto-similares, renormalización se refiere a un conjunto de técnicas que se utilizan para tener un límite continuo.

Al describir el espacio y el tiempo como un continuo, ciertas construcciones mecánicas estadísticos y cuánticos están mal definidos. Para definirlos, el límite continuo tiene que ser tomado con cuidado.

Renormalización determina la relación entre los parámetros en la teoría, cuando los parámetros que describen grandes escalas de distancia difieren de los parámetros que describen pequeñas distancias. Renormalización fue desarrollado por primera vez en electrodinámica cuántica (QED) para dar sentido a infinitas integrales en teoría de la perturbación. Inicialmente visto como sospechoso, procedimiento provisional por algunos de sus creadores, renormalización finalmente fue adoptado como un importante y herramienta de auto-consistente en diversos campos de la física y las matemáticas .

La libre interacción en la física clásica

Figura 1. Renormalización en electrodinámica cuántica: La simple interacción electrón-fotón que determina la carga del electrón en un punto renormalización se revela a consistir en más complicadas interacciones a otro.

El problema de infinitos surgió por primera vez en la electrodinámica clásica de partículas puntuales en el siglo 19 y principios del siglo 20.

La masa de una partícula cargada debe incluir la masa-energía en su campo electrostático. Supongamos que la partícula es una cáscara esférica cargada de radio r_e . La energía en el campo es

m_ \ mathrm {em} = \ int \ operatorname {d} V {1 \ over 2} E ^ 2 = \ {int_ r_e} ^ \ infty dr 4 \ pi r ^ 2 \ left ({q \ over 4 \ pi r ^ 2} \ right) ^ 2 = {q ^ 2 \ over 4 \ pi} r_e

y es infinito cuando r_e es cero. El valor de r_e lo que hace m _ {\ mathrm {em}} igual a la masa del electrón se llama radio clásico del electrón. Con factores de cy \ Epsilon_0 restaurada:

r_e = {q ^ 2 \ over 4 \ pi \ epsilon_0 m_e c ^ 2} \ aprox {1 \ over 137} {\ hbar \ sobre m_e c} \ aproximadamente 2,8 \ times 10 ^ {- 15} \, \ mathrm { m}.

Es por lo tanto \ Alpha veces menor que la Compton longitud de onda del electrón.

La masa de una partícula cargada esférica incluye la masa de la cáscara esférica. Si se permite que la masa de la concha a ser negativo, puede ser que sea posible tomar un punto límite consistente. Esto fue llamado renormalización, y Lorentz y Abraham intentó desarrollar una teoría clásica del electrón de esta manera. Este primer trabajo fue la inspiración para posteriores intentos en regularización y renormalización en teoría cuántica de campos.

Al calcular las electromagnéticas interacciones de cargadas partículas, es tentador ignorar la parte posterior reacción del campo propio de una partícula en sí mismo. Pero esta reacción inversa es necesario explicar la fricción en las partículas cargadas cuando emiten radiación. Si el electrón se supone que es un punto, el valor de la parte posterior reacción diverge, por la misma razón que la masa diverge, porque el campo es del cuadrado inverso.

La Teoría de Abraham-Lorentz tenía un no causal "pre-aceleración". A veces un electrón sería empezar a moverse antes de que se aplica la fuerza. Esta es una señal de que el límite de puntos es inconsistente. Un cuerpo extendido comenzará a moverse cuando se aplica una fuerza dentro de un radio del centro de masa.

El problema era peor en la teoría clásica de campos que en la teoría cuántica de campos, porque en la teoría del campo cuántico de una partícula cargada en distancias cortas puede fluctuar en una antipartícula. La antipartícula tiene carga opuesta, y las fluctuaciones de difamar a la carga sobre una región comparable a la longitud de onda de Compton. En la electrodinámica cuántica en pequeña la masa de acoplamiento electromagnético sólo diverge como el logaritmo del radio de la partícula.

Muchos físicos creen que cuando la constante de estructura fina es mucho mayor que uno, de manera que el radio clásico del electrón es más grande que la longitud de onda cuántica, los mismos problemas que plagan la electrodinámica clásica están todavía presentes en la electrodinámica cuántica.

Las divergencias en la electrodinámica cuántica

Figura 2. Un diagrama de contribuir a la dispersión electrón-electrón en QED. El bucle tiene una divergencia ultravioleta.
Polarización del vacío, carga los alias de cribado. Este bucle tiene una divergencia ultravioleta logarítmica.
Diagrama de energía Ser en QED.

En el desarrollo de la electrodinámica cuántica en los años 1930, Max Born, Werner Heisenberg, Pascual Jordan y Paul Dirac descubrieron que en los cálculos perturbativas muchos integrales fueron divergentes.

Una forma de describir las divergencias fue descubierto en 1930 por Ernst Stueckelberg, en la década de 1940 por Julian Schwinger, Richard Feynman , y Shin'ichiro Tomonaga y sistematizada por Freeman Dyson. Las divergencias aparecen en los cálculos que implican Diagramas de Feynman con circuitos cerrados de partículas virtuales en ellos.

Mientras que las partículas virtuales obedecen conservación de la energía y el impulso , que puede tener cualquier energía y momento, incluso uno que no está permitido por la relación energía-momento relativista de la masa observada de esa partícula. (Esto es, E ^ 2-p ^ 2 no es necesariamente la masa de la partícula en ese proceso (por ejemplo, para un fotón podría ser distinto de cero).) Tal una partícula se llama fuera de la concha. Cuando existe un bucle, el impulso de las partículas involucradas en el bucle no está determinada únicamente por las energías y los momentos de las partículas entrantes y salientes. Una variación en la energía de una partícula en el bucle puede ser equilibrado por una variación igual y opuesta en la energía de otra partícula en el bucle. Así que para encontrar la amplitud para el proceso de bucle hay que integrar todas las posibles combinaciones de energía y el impulso que podría viajar alrededor del bucle.

Estas integrales son a menudo divergentes, es decir, dan respuestas infinitas. Las divergencias que son importantes son el " ultravioleta "(UV) queridos. Una divergencia ultravioleta se pueden describir como uno que viene de

- La región en la integral donde todas las partículas en el bucle tienen grandes energías y el impulso.
- Muy corto longitudes de onda y de alto Frecuencias de las fluctuaciones de los campos, en la ruta integral para el campo.
- Muy corto tiempo adecuado entre la emisión de partículas y la absorción, si el circuito está pensado como una suma sobre trayectorias de las partículas.

Así que estas divergencias son de corta distancia, los fenómenos de corta duración.

Hay exactamente tres diagramas de lazo divergente a un loop en la electrodinámica cuántica.

  1. un fotón crea una electrones virtual par de positrones que luego aniquilar, este es un diagrama de polarización del vacío.
  2. un electrón que emite y reabsorbe un fotón virtual rápidamente, llamado auto-energía.
  3. Un electrón emite un fotón, emite un segundo fotón, y reabsorbe el primero. Este proceso se muestra en la figura 2, y se llama una renormalización vértice.

Los tres divergencias corresponden a los tres parámetros en la teoría:

  1. el campo de la normalización Z.
  2. la masa del electrón.
  3. la carga del electrón.

Una segunda clase de divergencia, llamado divergencia de infrarrojos, se debe a partículas sin masa, como el fotón. Cada proceso que involucra partículas cargadas emite un número infinito de fotones coherentes de longitud de onda infinita, y la amplitud para emitir cualquier número finito de fotones es cero. Para fotones, estas divergencias se comprendan y no son una fuente de controversia.

Una divergencia de bucle

El diagrama de la Figura 2 muestra una de las varias contribuciones de un bucle de electrón-electrón dispersión en QED. El electrón en el lado izquierdo del diagrama, representado por la línea continua, comienza con cuatro impulso p ^ \ mu y termina con cuatro impulso r ^ \ mu . Emite una carga fotón virtual r ^ \ mu - p ^ \ mu para transferir la energía y el impulso a la otra de electrones. Pero en este diagrama, antes de que eso ocurra, emite otro fotón virtual que lleva cuatro impulso q ^ \ mu , Y se reabsorbe esta uno tras el otro emisor de fotón virtual. Energía y conservación del momento no determinan el cuadrimpulso q ^ \ mu únicamente, así que todas las posibilidades contribuyen por igual y tenemos que integrar.

Amplitud de este diagrama termina con, entre otras cosas, un factor desde el bucle de

-es decir ^ 3 \ int {d ^ 4 q \ over (2 \ pi) ^ 4} \ gamma ^ \ mu {i (\ gamma ^ \ alpha (rq) _ \ alpha + m) \ over (rq) ^ 2 - m ^ 2 + i \ epsilon} \ gamma ^ \ rho {i (\ gamma ^ \ beta (pq) _ \ beta + m) \ over (pq) ^ 2 - m ^ 2 + i \ epsilon} \ gamma ^ \ nu {g -i _ {\ mu \ nu} \ más q ^ 2 + i \ epsilon}

Los diversos \ gamma ^ \ mu factores en esta expresión son matrices gamma como en la formulación covariante del Ecuación de Dirac; que tienen que ver con el espín del electrón. Los factores de e son la constante de acoplamiento eléctrico, mientras que la i \ epsilon proporcionar una definición heurística del contorno de la integración alrededor de los polos en el espacio de momentos. La parte importante para nuestros propósitos es la dependencia q ^ \ mu de los tres grandes factores en el integrando, que son de la propagadores de las dos líneas de electrones y la línea de fotones en el bucle.

Esto tiene una pieza con dos potencias de q ^ \ mu en la parte superior que domina en los grandes valores de q ^ \ mu (Pokorski 1987, p 122.):

e ^ 3 \ gamma ^ \ mu \ gamma ^ \ alpha \ gamma ^ \ rho \ gamma ^ \ beta \ gamma_ \ mu \ int {d ^ 4 q ^ \ over (2 \ pi) 4} {q_ \ alpha q_ \ beta \ over (rq) ^ 2 (pq) ^ 2 q ^ 2}

Esta integral es divergente, e infinito si no cortamos en energía finita y el impulso de alguna manera.

Divergencias bucle similares ocurren en otras teorías cuánticas de campos.

Renormalizado y cantidades desnudos

La solución fue darse cuenta de que las cantidades inicialmente aparecen en las fórmulas de la teoría (tales como la fórmula de la Lagrange), representando cosas tales como el electrón de carga eléctrica y la masa , así como las normalizaciones de la cuántica propios campos, en realidad no corresponden a las constantes físicas medidas en el laboratorio. Como está escrito, que eran cantidades desnudas que no tomaron en cuenta la contribución de los efectos de bucle virtual de partículas a los propios constantes físicas. Entre otras cosas, estos efectos serían la contraparte cuántica de la parte posterior reacción electromagnética que angustiado teóricos clásicos del electromagnetismo. En general, estos efectos serían tan divergentes como las amplitudes en estudio en el primer lugar; cantidades medidas de manera finitos serían en general implica cantidades desnudos divergentes.

Con el fin de hacer contacto con la realidad y, a continuación, las fórmulas tendrían que ser reescrito en términos de cantidades medibles, renormalizadas. La carga del electrón, por ejemplo, se define en términos de una cantidad medida a una específica cinemática punto de renormalización o punto de sustracción (que generalmente tienen una energía característica, llamada la escala de renormalización o simplemente el escala de energía). Las partes de la función de Lagrange sobrantes, involucrando a las partes restantes de las cantidades desnudas, entonces podría ser reinterpretados como counterterms, implicado en los diagramas divergentes cancelan exactamente las divergencias problemáticos para otros diagramas.

Renormalización en QED

Figura 3. El vértice correspondiente a la Z 1 contratérmino cancela la divergencia en la Figura 2.

Por ejemplo, en el Lagrangiano de QED

\ Mathcal {L} = \ bar \ psi_B \ left [i \ gamma_ \ mu (\ partial ^ \ mu + ie_BA_B ^ \ mu) -m_B \ right] \ psi_B - \ frac {1} {4} F_ {B \ mu \ nu} F_B ^ {\ mu \ nu}

los campos y las constantes de acoplamiento son cantidades muy desnudas, por lo tanto, el subíndice B anteriormente. Convencionalmente las cantidades desnudas se han escrito para que los términos de Lagrange correspondientes son múltiplos de los renormalizadas queridos:

\ Left (\ bar \ psi m \ psi \ right) = _B Z_0 \, \ bar \ psi m \ psi
\ Left (\ bar \ psi (\ partial ^ \ mu + AIE ^ \ mu) \ psi \ right) = _B z_1 \, \ bar \ psi (\ partial ^ \ mu + AIE ^ \ mu) \ psi
\ left (F _ {\ mu \ nu} F ^ {\ mu \ nu} \ right) = _B Z_3 \, F _ {\ mu \ nu} F ^ {\ mu \ nu} .

( Medidor de invariancia, a través de un Identidad Ward-Takahashi, resulta dar a entender que podemos renormalizar los dos términos de la pieza derivada covariante \ Bar \ psi (\ partial + AIE) \ psi juntos (Pokorski 1987, p. 115), que es lo que pasó con Z_2 ; es el mismo que Z_1 .)

Un término en este lagrangiano, por ejemplo, la interacción electrón-fotón ilustra en la Figura 1, se puede escribir

\ Mathcal {L} _I = -e \ bar \ psi \ gamma_ \ mu A ^ \ mu \ psi \, - \, (z_1 - 1) e \ bar \ psi \ gamma_ \ mu A ^ \ mu \ psi

La constante física e , La carga del electrón, entonces se puede definir en términos de algún experimento específico; establecimos la escala renormalización igual a la energía característica de este experimento, y el primer término da la interacción que vemos en el laboratorio (hasta pequeñas correcciones finitos de diagramas de lazo, para que la exotica como las correcciones de orden superior a la momento magnético). El resto es el contratérmino. Si tenemos suerte, las partes divergentes de diagramas de circuitos pueden ser descompuestos en trozos con tres o menos las piernas, con una forma algebraica que puede ser anulado por el segundo término (o por los counterterms similares que provienen de Z_0 y Z_3 ). En QED, tenemos suerte: la teoría es renormalizable (ver más abajo para obtener más información).

El diagrama con la Z_1 interacción vértice de contratérmino colocado como en la figura 3 anula la divergencia desde el bucle en la Figura 2.

La división de los "términos descalzos" en los términos y counterterms originales se presentó ante el ideas del grupo de renormalización debido a Kenneth Wilson. De acuerdo con la renormalización ideas del grupo, esta división es artificial y no físico.

Ejecución de las constantes

Para minimizar la contribución de los diagramas de bucle a un cálculo dado (y por lo tanto que sea más fácil para extraer resultados), se elige un punto cercano a las energías y momentos de renormalización realmente intercambiados en la interacción. Sin embargo, el punto de renormalización no es en sí misma una cantidad física: las predicciones físicas de la teoría, calculados para todos los órdenes, deben ser, en principio, independiente de la elección del punto de renormalización, siempre y cuando esté dentro del dominio de aplicación de la teoría. Los cambios en la escala de renormalización simplemente afectará a la cantidad de un resultado proviene de diagramas de Feynman sin bucles, y cuánto proviene de las partes sobrantes finitos de diagramas de lazo. Uno puede explotar este hecho para calcular la variación eficaz de constantes físicas con cambios de escala. Esta variación está codificada por beta-funciones, y la teoría general de este tipo de escala-dependencia es conocida como la grupo de renormalización.

Coloquialmente, los físicos de partículas a menudo hablan de ciertas constantes físicas como la variación con la energía de una interacción, aunque en realidad se trata de la escala renormalización que es la cantidad independiente. Este funcionamiento, sin embargo, proporcionan un medio conveniente de describir los cambios en el comportamiento de una teoría de campo bajo los cambios en las energías involucradas en una interacción. Por ejemplo, ya que la constante de acoplamiento en cromodinámica cuántica se hace pequeña a escalas grandes de energía, la teoría se comporta más como una teoría libre como la energía intercambiada en una interacción se hace grande, un fenómeno conocido como libertad asintótica. La elección de una escala de energía cada vez mayor y con el grupo de renormalización hace a partir de diagramas de Feynman simples esto claro; Si no fuera hecho, la predicción sería la misma, pero surgiría de complicados cancelaciones de alto orden.

Regularización

Puesto que la cantidad \ Infty - \ infty está mal definido, con el fin de hacer de este concepto de cancelación de divergencias precisas, las divergencias tienen primero que ser domesticado matemáticamente usando la teoría de los límites , en un proceso conocido como regularización.

Una modificación esencialmente arbitraria a los integrandos de bucle, o regulador, puede hacer que se entrega más rápida a altas energías y momentos, de tal manera que las integrales convergen. Un regulador tiene una escala de energía característica conocida como la cortar; teniendo este punto de corte hasta el infinito (o, equivalentemente, la escala de longitud / tiempo correspondiente a cero) recupera las integrales originales.

Con el regulador en su lugar, y un valor finito para el corte, términos divergentes en las integrales luego se convierten en términos finitos pero de corte dependiente. Después de cancelar estos términos con las contribuciones de counterterms corte-dependiente, el punto de corte se toma hasta el infinito y resultados físicos finitos recuperó. Si la física en las escalas que podemos medir es independiente de lo que sucede en la distancia y el tiempo escalas muy cortas, entonces debería ser posible conseguir resultados de corte independiente para los cálculos.

Muchos tipos diferentes de regulador se utilizan en cálculos de la teoría cuántica de campos, cada uno con sus ventajas y desventajas. Uno de los más populares en el uso moderno es regularización dimensional, inventado por Gerardus 't Hooft y Martinus JG Veltman, que domestica las integrales mediante la realización de ellos en un espacio con un número fraccionario ficticio de dimensiones. Otra es Regularización Pauli-Villars, que añade partículas ficticias a la teoría con masas muy grandes, de forma que integrandos bucle que implican las partículas masivas anulan los lazos existentes en general ímpetus.

Sin embargo, otro sistema de regularización es la Regularización del enrejado, introducido por Kenneth Wilson, que pretende que nuestro espacio-tiempo se construye por una rejilla hiper cúbica con tamaño de la cuadrícula fija. Este tamaño es un corte natural para el impulso máximo que una partícula puede poseer al propagar en la retícula. Y después de hacer el cálculo en varias celosías con diferente tamaño de la cuadrícula, el resultado físico es extrapolado a tamaño de la cuadrícula 0, o nuestro universo natural. Esto presupone la existencia de una escalamiento límite.

Un enfoque matemático riguroso a la teoría de renormalización es la llamada teoría de las perturbaciones causal, donde divergencias ultravioletas se evitan desde el principio en los cálculos mediante la realización de operaciones matemáticas bien definidas sólo en el marco de teoría de la distribución. La desventaja del método es el hecho de que el enfoque es bastante técnica y requiere un alto nivel de conocimientos matemáticos.

Zeta función regularización

Julian Schwinger descubrió una relación entre regularización zeta función y renormalización, usando la relación asintótica:

I (n, \ lambda) = \ int_ {0} ^ {\ lambda} dp \, p ^ {n} \ sim 1 + 2 ^ n + 3 ^ n + ... + \ Lambda ^ n = \ zeta (- n)

como regulador \ Lambda \ rightarrow \ infty . Basado en esto, se considera el uso de los valores de \ Zeta (-n) para obtener resultados finitos. A pesar de que llegó a resultados inconsistentes, una fórmula mejorada por Hartle, J. García, E. Elizalde incluye

I (n, \ lambda) = \ frac {n} {2} I (n-1, \ Lambda) + \ zeta (-n) - \ sum_ {r = 1} ^ {\ infty} \ frac {B_ { 2r}} {(2R)!} a_ {n, r} (n-2r + 1) I (n-2r, \ Lambda) ,

donde el B 's son la Números de Bernoulli y

a_ {n, r} = \ frac {\ Gamma (n + 1)} {\ Gamma (n-2r + 2)} .

Así que cada I (m, \ Lambda) puede ser escrita como una combinación lineal de \ Zeta (-1), \ zeta (-3), \ zeta (-5), ...... \ zeta (-m)

O simplemente usando Fórmula de Abel-Plana que tenemos para cada integrante divergente:

\ Zeta (-m, \ beta) - \ frac {\ beta ^ {m}} {2} -i \ int_ 0 ^ {\ infty} dt \ frac {(que + \ beta) ^ {m} - (- es + \ beta) ^ {m}} {e ^ {2 \ pi t} -1} = \ int_0 ^ {\ infty} dp (p + \ beta) ^ {m} válida cuando m> 0, Aquí la función Zeta es Función zeta de Hurwitz y Beta es un número real positivo.

La analogía "geométrica" está dada por, (si utilizamos método de rectángulo) para evaluar la integral así:

\ Int_ {0} ^ {\ infty} dx (\ beta + x) ^ {m} \ aprox \ sum_ {n = 0} ^ {\ infty} h ^ {m + 1} \ zeta (\ beta h ^ { -1}, -m)

Utilizando Hurwitz regularización zeta plus rectángulo con el paso h (que no debe confundirse con La constante de Planck)

Las actitudes y la interpretación

Los primeros formuladores de QED y otras teorías cuánticas de campos eran, por regla general, no está satisfecho con este estado de cosas. Parecía ilegítimo que hacer algo equivalente a restar de infinitos infinitos para obtener respuestas finitas.

Dirac crítica 's fue la más persistente. Todavía en 1975, que decía:

La mayoría de los físicos están muy satisfechos con la situación. Dicen: 'La electrodinámica cuántica es una buena teoría y no tienen que preocuparse por ello nunca más. " Debo decir que estoy muy satisfecho con la situación, porque esta supuesta "buena teoría" Qué implica descuidar infinitos que aparecen en sus ecuaciones, descuidarlos de manera arbitraria. Se trata no sólo de las matemáticas sensatas. Matemáticas Sensible implica descuidando una cantidad cuando es pequeño - sin olvidar que sólo porque es infinitamente grande y usted no lo quiere!

Otro crítico importante fue Feynman . A pesar de su papel crucial en el desarrollo de la electrodinámica cuántica, escribió lo siguiente en 1985:

El juego de la cáscara que jugamos ... que técnicamente se denomina 'renormalización'. Pero no importa lo inteligente que la palabra, todavía es lo que yo llamaría un proceso dippy! Tener que recurrir a tales abracadabra nos ha impedido probar que la teoría de la electrodinámica cuántica es matemáticamente auto-consistente. Es sorprendente que la teoría aún no se ha demostrado auto-consistente de una manera u otra por ahora; Sospecho que la renormalización no es matemáticamente legítimo.

Mientras que la crítica de Dirac se basa en el procedimiento de renormalización en sí, la crítica de Feynman era muy diferente. Feynman le preocupaba que todas las teorías de campo conocidos en la década de 1960 tenían la propiedad de que las interacciones se vuelve infinitamente fuerte en escalas de distancia lo suficientemente corta. Esta propiedad, llamada Landau polo, hizo posible que las teorías cuánticas de campos eran inconsistentes. En 1974, Gross, Politzer y Wilczek mostró que otra teoría cuántica de campos, cromodinámica cuántica, no tiene un polo landó. Feynman, junto con la mayoría de los demás, se acepta que la QCD es una teoría totalmente coherente.

El malestar general fue casi universal en los textos hasta los años 1970 y 1980. A partir de la década de 1970, sin embargo, inspirado en la obra de la grupo de renormalización y La teoría de campo eficaz, ya pesar del hecho de que Dirac y varios otros - todos los cuales pertenecían a la generación de más edad - nunca retiraron sus críticas, las actitudes comenzaron a cambiar, sobre todo entre los teóricos más jóvenes. Kenneth G. Wilson y otros demostraron que el grupo de renormalización es útil en estadística aplicada a la teoría del campo de la física de la materia condensada , donde se ofrece información importante sobre el comportamiento de transiciones de fase. En la física de la materia condensada, existe un regulador de corta distancia real: la materia deja de ser continua en la escala de átomos . Divergencias de corta distancia en la física de la materia condensada no presentan un problema filosófico, ya que la teoría de campo es sólo una representación efectiva, alisada del comportamiento de la materia de todos modos; no hay infinitos ya que el corte es en realidad siempre finito, y tiene todo el sentido que las cantidades desnudas son de corte dependiente.

Si QFT tiene todo el camino más allá de la Longitud de Planck (donde podría ceder a la teoría de cuerdas , causal teoría de conjuntos o algo diferente), entonces puede haber ningún problema real con las divergencias de corta distancia en la física de partículas , ya sea; todas las teorías de campo simplemente podría ser teorías de campo eficaces. En cierto sentido, este enfoque se hace eco de la actitud mayores que las divergencias en QFT hablan de la ignorancia humana sobre el funcionamiento de la naturaleza, pero también reconoce que esta ignorancia se puede cuantificar y que las teorías efectivas resultantes siguen siendo útiles.

En QFT, el valor de una constante física, en general, depende de la escala que se elige como punto de renormalización, y se hace muy interesante para examinar el grupo de renormalización funcionamiento de las constantes físicas en virtud de los cambios en la escala de energía. Las constantes de acoplamiento en el Modelo Estándar de la física de partículas varían de diferentes maneras con el aumento de escala de energía: el acoplamiento de cromodinámica cuántica y el acoplamiento isospin débil de la fuerza electro tienden a disminuir, y el acoplamiento hipercarga débil de la fuerza electro tiende a aumentar. En la escala de energía colosal de 10 15 GeV (mucho más allá del alcance de nuestra civilización aceleradores de partículas), todos se convierten en aproximadamente el mismo tamaño (Grotz y Klapdor 1990, p. 254), una de las principales motivaciones para especulaciones sobre gran teoría unificada. En lugar de ser sólo un problema preocupante, renormalización se ha convertido en una importante herramienta teórica para estudiar el comportamiento de las teorías de campo en diferentes regímenes.

Si una teoría que ofrece renormalización (por ejemplo QED) sólo puede interpretarse razonablemente como una teoría de campo eficaz, es decir, como una aproximación que refleja la ignorancia humana sobre el funcionamiento de la naturaleza, el problema sigue siendo de descubrir una teoría más precisa que no tiene estos problemas renormalización . Como Lewis Ryder ha dicho, "En la teoría cuántica, estas divergencias [clásica] no desaparecen;. Por el contrario, parecen empeorar Y a pesar del éxito comparativo de la teoría de renormalización la sensación es que debe haber un mayor manera satisfactoria de hacer las cosas ".

Renormalizabilidad

De esta reevaluación filosófica un nuevo concepto sigue naturalmente: la noción de renormalizabilidad . No todas las teorías se prestan a la renormalización de la manera descrita anteriormente, con un suministro finito de counterterms y todas las cantidades se convierten-corte independiente al final del cálculo. Si el lagrangiano contiene combinaciones de operadores de campo de excesivamente alto dimensión en unidades de energía, los counterterms necesarios para cancelar todas las divergencias proliferan a infinidad, y, a primera vista, la teoría parece tener un número infinito de parámetros libres y por lo tanto perder toda capacidad de predicción, convirtiéndose científicamente sin valor. Estas teorías se llaman nonrenormalizable.

El Modelo Estándar de la física de partículas contiene sólo los operadores renormalizables, pero las interacciones de la relatividad general se convierten en operadores nonrenormalizable si se intenta construir una teoría de campo de la gravedad cuántica de la manera más sencilla, lo que sugiere que teoría de la perturbación es inútil en la aplicación de la gravedad cuántica.

Sin embargo, en una teoría de campo eficaz "renormalizabilidad" es, estrictamente hablando, un nombre inapropiado. En una teoría de campo eficaz nonrenormalizable, términos en la función de Lagrange se multiplican hasta el infinito, pero tienen coeficientes reprimidas por las potencias inversas cada vez más extremas del corte de energía. Si el punto de corte es una verdadera cantidad, si, física, es decir, la teoría es sólo una descripción efectiva de la física hasta un poco de energía máximo o mínimo de la escala de distancia, entonces estos términos adicionales podrían representar las interacciones físicas reales. Suponiendo que las constantes adimensionales en la teoría no reciben, cálculos de grupo uno puede muy grandes por las potencias inversas de la corte, y extraer predicciones aproximadas a orden finito en el punto de corte que todavía tiene un número finito de parámetros libres. Incluso puede ser útil para renormalizar estas interacciones "nonrenormalizable".

Interacciones Nonrenormalizable en las teorías de campo eficaces se vuelven rápidamente más débil como la escala de energía se convierte en mucho más pequeño que el punto de corte. El ejemplo clásico es el La teoría de Fermi de la fuerza nuclear débil, una teoría efectiva nonrenormalizable cuyo corte es comparable a la masa de la W de partículas. Este hecho también puede proporcionar una posible explicación de por qué casi todas las interacciones de partículas que vemos son descriptibles por teorías renormalizables. Puede ser que cualesquiera otras que puedan existir en la GUT o escala de Planck simplemente se vuelven demasiado débiles para detectar en el campo podemos observar, con una excepción: la gravedad , cuya interacción extremadamente débil se magnifica por la presencia de las enormes masas de estrellas y planetas .

Esquemas de renormalización

En los cálculos reales, los counterterms introducidos a cancelar las divergencias en los cálculos de diagramas de Feynman más allá del nivel árbol debe fijarse mediante un conjunto de condiciones de renormalización. Los esquemas de renormalización comunes en uso incluyen:

  • Resta mínima (MS) esquema y la resta mínimo modificado relacionados (MS-bar) esquema
  • On-shell esquema

Aplicación en Física Estadística

Como se ha mencionado en la introducción, los métodos de renormalización se han aplicado a la Física Estadística, a saber, a los problemas del comportamiento crítico cerca de las transiciones de fase de segundo orden, en particular a las dimensiones espaciales ficticias justo debajo el número de 4, en el que el antes mencionado métodos podrían incluso ser afiladas (es decir, en lugar de "renormalizabilidad" uno tiene "super-renormalizabilidad"), lo que permitió la extrapolación a la dimensionalidad espacial real para transiciones de fase, 3. Los detalles se pueden encontrar en el libro de Zinn-Justin, se mencionan a continuación .

Para el descubrimiento de estas aplicaciones inesperadas, y trabajando en los detalles, en 1982 el premio Noble de la física fue dada a Kenneth G. Wilson.

Recuperado de " http://en.wikipedia.org/w/index.php?title=Renormalization&oldid=226641245 "