Teilchenphysik
bottom:.0001pt\'>1 Einleitung
bottom:.0001pt\'>Das Konzept der
Renormierung ist ein notwendiger Bestandteil in der Festkörpertheorie und der
Quantenfeldtheorie zur Beschreibung subatomarer relativistischer Teilchen.
Diese Theorien basieren auf einem Satz von Grundgleichungen, die beschreiben,
wie die beteiligten Teilchen und/oder Felder in kleinen Abständen miteinander
wechselwirken. Die Gleichungen sind für Festkörpersysteme gegeben durch den
Hamilton-Operator und
in der Quantenfeldtheorie durch die Wirkung
, wobei
die Lagrange-Dichte ist. Diese Ausdrücke
enthalten eine Anzahl von willkürlichen Parametern wie die Masse der Teilchen
und die Stärke der wechselwirkenden Kräfte, z.B. derjenigen, die durch die
elektrische Ladung
hervorgerufen
werden.
bottom:.0001pt\'>Die Berechnung der
Wechselwirkung dieser Teilchen für grosse Abstände und Zeiten ergibt, dass die
Teilchen sich verhalten, als ob ihre Massen und Wechselwirkungskräfte
verschieden sind. Diese Unterschiede werden aber durch die Wechselwirkung
selbst hervorgerufen. Sind bzw.
die ursprüngliche »nackte« Masse bzw. Ladung
bei einem Abstand
und
bzw.
(der Index »R« steht für renormiert)
die effektive Masse bzw. Ladung bei einem grösseren Abstand
, so gelten die Beziehungen:
bottom:.0001pt\'>
bottom:.0001pt\'>Für die meisten
Theorien divergieren die Renormierungskonstanten und
, wenn das Verhältnis der Abstandsskalierung
gegen Unendlich geht. Aus
diesem Grund gibt es keine strenge lokale Definition von
und
, wenn
infinitesimal ist. Dadurch sind die
Renormierungskonstanten unendlich gross bzw. schlecht definiert.
bottom:.0001pt\'>Dagegen ist im Fall
der klassischen Mechanik die Situation relativ einfach. Newton und Leibnitz
fanden heraus, dass unter der Annahme kleiner Zeitschritte und entsprechend kleiner
Auslenkungen
das
Verhältnis
wohl definierte
Grenzwerte besitzt. Unter dieser Voraussetzung wurde die Theorie der
Differentialgleichungen entwickelt. In Festkörpersystemen und in der
Quantenfeldtheorie ist die Situation jedoch komplizierter.
bottom:.0001pt\'>
bottom:.0001pt\'>2 Kurzer Überblick über die Geschichte der Renormierung
bottom:.0001pt\'>Die heutzutage als Quantenelektrodynamik (QED) bezeichnete Theorie wurde begründet, als M. Born, W. Heisenberg und P. Jordan die Regeln für die Erzeugung und Vernichtung von Teilchen formulierten und P.A.M. Dirac seine berühmten Gleichungen für ein relativistisches Elektron in einem elektromagnetischen Feld aufstellte. Unvermeidlicherweise setzt diese Theorie voraus, dass eine unbegrenzte Anzahl von Teilchen während des Wechselwirkungsprozesses erzeugt und vernichtet werden kann. Je höher die Genauigkeit der Rechnung ist, desto grösser wird die Zahl der involvierten Teilchen. Besonders in diesen störungstheoretischen Rechnungen hoher Ordnung tauchen die Schwierigkeiten der »Unendlichkeiten« auf.
bottom:.0001pt\'>Die Tatsache, dass das
Strahlungsfeld zur Masse des Elektrons beiträgt, folgt bereits aus den
Maxwell-Gleichungen für den Elektromagnetismus, in Kombination mit der
Speziellen Relativitätstheorie von Einstein. In diesem Rahmen ergibt sich, dass
für eine kleine Murmel mit dem Radius seine Masse
auf
bottom:.0001pt\'>
bottom:.0001pt\'>anwachsen würde (in MKS-Einheiten).
bottom:.0001pt\'>Unter der Annahme
eines punktförmigen Elektrons () mit einer physikalischen Masse
als aktueller Elektronenmasse würde
daraus folgen, dass
negativ
und unendlich sein muss - eine sinnlose instabile Situation. In der
Quantentheorie kann der Ausdruck
in erster Näherung durch die
Compton-Wellenlänge
ersetzt
werden. Dies entspricht jedoch nicht dem Ergebnis aus der QED, da hier die
Divergenz im Gegensatz zu Gl. (2) kein lineares, sondern ein logarithmisches
Verhalten in
zeigt.
bottom:.0001pt\'>Dirac und ebenso W.H.
Furry und J.R. Oppenheimer erkannten, dass das starke elektrische Feld in der
Nähe des Elektrons zu einer kleinen Trennung der virtuellen
Elektron-Positron-Paare führt, und dieser als Vakuumpolarisation bezeichnete
Effekt schirmt die Elektronenladung ab. Aufgrund der Vakuumpolarisation ist die
wirkliche Elektronenladung kleiner als die der »nackten« Ladung
, und diese Renormierung
geht wiederum gegen unendlich und zwar logarithmisch mit
. In früheren Rechnungen gab es
Anhaltspunkte dafür, dass auch die Photonenmasse einer unendlichen Renormierung
unterliegt. Da dieses Resultat jedoch der Eichinvarianz widerspricht, wurde es
nicht weiter ernst genommen.
bottom:.0001pt\'>Einer der ersten, der
verstand, dass alle diese Renormierungen gemeinsam in einem einzigen Programm
behandelt werden müssen, war H.A. Kramers. Zusammen mit R.L. de Kronig
entwickelte er ein Gleichungssystem, die sogenannten Dispersionsrelationen, die
lediglich unter der Annahme, dass Ursache und Wirkung zeitlich geordnet werden
müssen, die Berechnung von Effekten höherer Ordnung unter Vermeidung von
einigen unendlichen Grössen erlaubt. In einer berühmten Konferenz in Shelter
Island nahe New York berichtete W. Lamb 1947 über eine anormale Verschiebung
von ca. 1000 MHz, die er zwischen dem -Zustand und dem
-Zustand des Wasserstoffatomes gemessen hatte.
H. Bethe lieferte nur fünf Tage nach dieser Konferenz eine Erklärung für diesen
sogenannten Lamb-Shift, wobei er eine einfache Massenrenormierungstechnik
benutzte, dabei allerdings die logarithmische Divergenz bei der
Compton-Wellenlänge des Elektrones abschnitt (cut-off). Sein Ergebnis für die
Verschiebung war mit 1040 MHz bemerkenswert nahe am gemessenen Wert von Lamb.
Die genaue Korrektur zur Ordnung
wurde zuerst von S. Tomonaga und Co-Autoren
berechnet.
bottom:.0001pt\'>Ebenfalls 1947 konnte
J. Schwinger erfolgreich die höheren Korrekturterme des magnetischen Moments
des Elektrons berechnen, welches durch das gyromagnetische Verhältnis (laut Diracs alter Gleichung
ist
) beschrieben wird:
bottom:.0001pt\'>
bottom:.0001pt\'>Hierbei ist . Das Resultat stimmt gut
mit dem experimentellen Wert von 1,00118 überein.
bottom:.0001pt\'>Ein vollständiges
Verfahren zur Berechnung aller Korrekturterme zu jeder Potenz von wurde von R.P. Feynman, F.
Dyson, A. Salam und anderen ausgearbeitet. Ihre Methoden waren streng begrenzt
auf die elektromagnetische Wechselwirkung zwischen Elektronen und Photonen.
Erst nach und nach wurde die Aufmerksamkeit auch auf andere
Wechselwirkungskräfte gelenkt. So etablierte E. Fermi eine Gleichung für die
schwache Wechselwirkung, die später von E.C.G. Sudarshan und R.E. Marshak und
unabhängig davon von Feynman und M. Gell-Mann verfeinert wurde. Diese Theorie
liess sich jedoch nicht renormieren, was bedeutete, dass sich die unendlichen
Terme in ihrer Struktur von den ursprünglichen unterschieden und durch eine
Neudefinition der letzteren nicht aufgefangen werden konnten. Die starke
Wechselwirkung stellt ein weiteres grosses Problem dar: die Kopplungsstärke der
starken Kraft ist so gross, dass eine systematische Entwicklung nach den Potenzen
dieser Wechselwirkung sinnlos ist.
bottom:.0001pt\'>Die nichtabelsche Eichtheorie, die in der Literatur zuerst von C.N. Yang und R.L. Mills im Jahr 1954 beschrieben wurde, besass eine Form, die Renormierbarkeit vermuten liess. Diese Theorie stellt eine direkte Erweiterung der Maxwell-Gleichungen mit einem grösseren Satz von Vektorfeldern dar. Der 1964 vorgestellte Englert-Brout-Higgs-Mechanismus deutet auf eine zusätzliche Existenz von Skalarfeldern hin. Mit diesem Ansatz konstruierten S. Weinberg und A. Salam unabhängig voneinander ein Modell für die schwache Wechselwirkung, das renormierbar schien, aber beide waren nicht in der Lage, Rechnungen höherer Störungsordnungen durchzuführen. Zu dieser Zeit wurde die Quantenfeldtheorie jedoch vor allem aufgrund ihrer komplexen Natur, der erforderlichen unendlichen Renormierungen und der entwickelten unrealistischen Theorien abgelehnt. Darüber hinaus liess sich mit der als Renormierungsgruppe bekannten Technik nicht-störungstheoretisch argumentieren, dass die »nackten« Ladungen oberhalb hoher Energien, also bei kleinen Abständen, unphysikalische Werte besitzen können. L. Landau folgerte, dass physikalisch nicht akzeptable Singularitäten auftreten können.
bottom:.0001pt\'>Der Autor dieses Essays entdeckte 1971, dass Theorien vom Englert-Brout-Higgs-Typ renormierbar sind, und gab eine vollständige Beschreibung zur Berechnung der höheren Ordnungen der Störungsreihe. Zusätzlich fand er heraus, dass die Landau-Singularität nicht in einer Yang-Mills-Theorie der starken Wechselwirkung auftaucht. Diese Besonderheit wurde 1973 von D. Politzer, D. Gross und F. Wilczek wiederaufgenommen und als »asymptotische Freiheit« bezeichnet.
bottom:.0001pt\'>Dieses Renormierungsverfahren ist eindeutig und hinterlässt keine divergenten Terme in den physikalisch messbaren Grössen. Lediglich die »nackten« Parameter, die nicht direkt gemessen werden können, sind divergent. Daraus folgt, dass alle messbaren Grössen der Theorie berechnet werden können, ausgedrückt durch einige frei wählbare Parameter, den physikalischen Konstanten. Eine Schwierigkeit trat in Theorien mit chiralen Wechselwirkungen auf, die unter der Bezeichnung Anomalien bekannt wurde. Dieses Problem wurde unabhängig voneinander von S. Adler und J. Bell sowie R. Jackiw entdeckt. Eine Theorie, die Anomalien besitzt, kann nur renormiert werden, wenn diese Anomalien beseitigt sind. Die Bedingungen zur Beseitigung bilden einfache algebraische Einschränkungen an die Struktur einer Theorie. Später fand man heraus, dass diese Anomalien in Beziehung zu einer nicht-perturbativen Symmetriebrechung stehen, die durch Instantonen hervorgerufen wird. Die Tatsache, dass es keine weiteren Hindernisse gibt, die die Renormierung gefährden, fand seine Bestätigung, als \'t Hooft und M. Veltman 1972 ihr Konzept der dimensionalen Renormierung einführten.
bottom:.0001pt\'>Das Standardmodell der Elementarteilchen ist ein spezielles, Anomalie-freies Beispiel für ein Eglert-Brout-Higgs-System und - soweit heutzutage bekannt - in der Lage, alle bekannten Wechselwirkungen zwischen den Elementarteilchen genau zu beschreiben. Bei Energien, die mit den heutzutage eingesetzten Teilchenbeschleunigern noch unerreichbar sind, erwartet man allerdings, dass das Standardmodell beträchtliche Anpassungen erfordert. Abgesehen von den sehr schwachen Effekten aufgrund einer endlichen Neutrinomasse erfordert das gegenwärtige Modell nicht mehr als 20 frei wählbare Konstanten. Zahlreiche Arbeiten der letzten Jahrzehnte bestätigten und verfeinerten das Standardmodell.
bottom:.0001pt\'>
bottom:.0001pt\'>3 Feynman-Regeln
bottom:.0001pt\'>Das Gebiet der
Quantenfeldtheorie ist zu kompliziert, um in diesem Artikel ausführlich
behandelt zu werden. Aus diesem Grund werden wir lediglich eine kurze
Zusammenfassung der allgemeinen Ideen geben. Die Teilchen-Wechselwirkung kann
verdeutlicht werden, indem jeder Beitrag zur Störungsentwicklung in Form eines
Feynman-Diagramms beschrieben wird. Der Propagator für ein skalares Teilchen
der Masse ist
beispielsweise gegeben durch den Ausdruck
bottom:.0001pt\'>
bottom:.0001pt\'>wobei für
steht,
eine infinitesimale positive Grösse und
die Masse des Teilchens ist.
Für ein Spin
-Teilchens
lautet er
bottom:.0001pt\'>
bottom:.0001pt\'>Der Propagator zur Beschreibung eines Vektorteilchens erfordert dagegen mehr Aufwand. Aus der Unitarität der resultierenden Streuamplitude folgt für den Propagator folgende Form:
bottom:.0001pt\'>
bottom:.0001pt\'>Der Term würde jedoch die Mehrzahl
der Diagramme für grosse
-Werte
so divergent machen, dass die Theorie nicht renormierbar ist. Nur wenn die
Theorie eichinvariant und das betrachtete Vektorteilchen eine Eichboson ist,
dessen Masse
durch
Higgs-Mechanismus erzeugt wird, können die Feynman-Regeln derart transformiert
werden, dass der Propagator folgende Form erhält:
bottom:.0001pt\'>
bottom:.0001pt\'>Hier ist ein freier Parameter (der
Eichparameter), der meist zu 0 oder 1 gewählt wird. In diesem Fall existieren
zusätzliche Geisterfelder, Fadejew-Popow-Geister genannt, die fiktive Beiträge
zu den Feynman-Regeln liefern. Sie sehen wie (komplexe) skalare Teilchen aus,
stellen aber in Wirklichkeit keine physikalisch beobachtbaren Zustände dar.
bottom:.0001pt\'>Die Gleichheit der
Propagatoren (6) und (7) in Kombination mit den notwendigen Beiträgen durch die
Fadejew-Popow-Geister folgt aus den Slawnow-Taylor-Identitäten, die die Ward-Identitäten
aus der Quantenelektrodynamik verallgemeinern. Im einfachsten Fall stellen die
Slawnow-Taylor-Identitäten sicher, dass für die höheren Schleifenkorrekturen
(loop corrections) des Propagators eines masselosen Bosons gilt. Im Grunde beschreiben die
Slawnow-Taylor-Identitäten die Tatsache, dass die Eichfixierung einer
Feldtheorie, z.B. durch die Lorentz-Eichung
, eine neue Symmetrie hervorruft, die von C.
Becchi, A. Rouet, R. Stora (und unabhängig davon I.V. Tyutin) entdeckte
BRS-Symmetrie.
bottom:.0001pt\'>Die Feynman-Regeln
können in einer knappen Form definiert werden, nämlich durch den
Lagrange-Dichte einer
eichfixierten Theorie. Die Propagatoren erhält man aus den Anteilen in der
Lagrange-Dichte, die bilinear in den Feldern sind, als das negative Inverse
ihrer Fourier-Koeffizienten. Zum Beispiel erhält man den Propagator (4) eines
(komplexen) skalaren Teilchens aus dem Term
. Die Vertizes folgen aus den Termen höherer
Ordnung. So entspricht z.B. der Ausdruck
einem Vertex, der Teilchen 1 mit Teilchen 2
und Teilchen 3 verbindet, mit zu
proportionaler Amplitude. Anhand genauer Regeln
ist es möglich, den Geisterbeitrag zur Lagrange-Dichte aus den eichfixierenden
Termen durch die Anwendung infinitesimaler Eichtransformationen auf diese Terme
abzuleiten.
bottom:.0001pt\'>
bottom:.0001pt\'>4 Renormierbarkeit
bottom:.0001pt\'>Ob eine Theorie störungstheoretisch renormierbar ist, zeigt im Prinzip direkt die Lagrange-Dichte. Die Schwierigkeit besteht gewöhnlich darin, dass zum einen eine eichfixierende Prozedur zu finden ist, die die Lagrange-Dichte in die gewünschte Form überführt, und dass zum anderen die notwendigen Slawnow-Taylor-Identitäten erfüllt sein müssen, damit die verschiedenen Eichfixierungen äquivalent sind. Der letzte Punkt ist besonders wichtig, da die Äquivalenz der verschiedenen Eichungen notwendig ist, um nach der erfolgten Renormierung zu prüfen, ob die erhaltene Theorie unitär und deshalb nützlich zur Beschreibung der realen Welt ist.
bottom:.0001pt\'>Die entscheidende
Regel ist ganz einfach, dass alle Propagatoren die Form (4), (5) oder (7), aber
nicht (6), besitzen und die Dimension aller Kopplungsparameter in jeder Ordnung
gleich oder grösser Null ist. Die Dimension bestimmt sich dadurch, dass man der
Lagrange-Funktion die Dimension (die Anzahl der Dimensionen in Raum und Zeit
und im allgemeinen gleich 4), einer Ableitung (oder einem Impuls
) oder einer Masse
die Dimension Eins und den Feldern
die Dimensionen zuordnet, die zu den bilinearen Termen in
passen. In der vierdimensionalen
Raumzeit besitzen Skalarfelder
und Vektorfelder
also die Dimension Eins und Spinorfelder
die Dimension 3 / 2. Eine
Kopplungskonstante, die mit vier Skalar- oder Vektorfeldern multipliziert wird,
hat die Dimension Null und eine Konstante, die drei solcher Felder multipliziert
(und keine Ableitungen) die Dimension Eins. Wenn nun die obige Bedingung
erfüllt ist, erkennt man, dass in den Amplituden höherer Ordnungen nur genau so
viele oder weniger Potenzen der Impulse wie in den Ausdrücken mit kleinerer
Ordnung auftreten. Der Grad der Divergenz eines Integrales über einen Impuls
in einem Feynman-Diagramm
kann nun direkt abgelesen werden.
bottom:.0001pt\'>Obwohl allzu
technische Beiträge in diesem Artikel vermieden werden sollen, muss der Begriff
des irreduziblen Feynman-Diagrammes eingeführt werden. Dabei handelt es sich um
ein Diagramm, das nicht durch das Zerschneiden genau eines Propagators in
voneinander unabhängige Teile separiert werden kann. Alle Feynman-Diagramme
können auf einfache Weise in Produkte aus den irreduziblen Darstellungen
zerlegt werden. Nur die irreduziblen Darstellungen, die zur Energie des Vakuums
beitragen, besitzen einen Grad der Divergenz gleich der Raum-Zeit-Dimension ; alle anderen irreduziblen
Diagramme sind weniger divergent. Man erkennt, dass nur diejenigen irreduziblen
Diagramme, die zur Renormierung der Kopplungsparameter mit nicht-negativer
Dimension beitragen, divergent sein müssen (abgesehen von den divergenten
Sub-Diagrammen, die getrennt betrachtet werden müssen). Damit lässt sich die
Bedingung zur Renormierung genauer formulieren: alle Wechselwirkungsterme, die
konsistent mit einer gegebenen Symmetrie sind und durch einen Störungsparameter
mit nicht-negativer Dimension beschrieben werden, müssen vorhanden sein. In
diesem Fall sind die einzigen divergenten Integrale diejenigen, die
Renormierungen der gegebenen Wechselwirkungsparameter entsprechen.
bottom:.0001pt\'>
bottom:.0001pt\'>5 Regularisierung
bottom:.0001pt\'>Wir sind nun
vorbereitet, eine strenge Strategie zur Definition einer sinnvollen Theorie
entwerfen zu können. Dazu müssen wir zunächst die Theorie regulär machen, d.h.
einige Abschneidebedingungen (cut-off) einführen, um alle Integrale endlich
oder zumindest konvergent zu machen. Aus diesem Grund werden leichte
Modifikationen der Theorie auf einer Abstandsskala eingeführt, die so klein
ist, dass sie die zu beschreibenden Phänomene nicht direkt beeinflussen. Das
einfachste Beispiel einer solcher Modifikation oder Regularisierung ist das
Ersetzen des kontinuierlichen Raumes durch ein sehr feines Gitter (Lattice).
Dieses sorgt automatisch dafür, dass alle Raumkomponenten des Impulses auf den Bereich
beschränkt sind, wobei
eine grosse Zahl und
der Abstand zwischen den
Gitterpunkten ist. Natürlich sind in einer solchen Theorie alle Integral(wert)e
endlich. Da die Zeit weiterhin kontinuierlich ist, stellt sich zwar nicht das
Problem mit der Unitarität, aber die Lorentz-Invarianz und sogar die
Rotationsinvarianz gehen offensichtlich verloren.
bottom:.0001pt\'>Es ist nicht schwer zu
erkennen, dass in diesem Ansatz ein kontinuierlicher Grenzwert existiert, ausser
in den Fällen, in denen das Integral divergiert. Dies tritt aber ja nur dann
auf, wenn wir - wie bereits erwähnt - eine frei wählbare physikalische
Konstante zur Hand haben und diesen Parameter so definieren bzw. renormieren
können, dass er die Unendlichkeit neutralisiert. Wenn also die »nackten«
Konstanten für einigen
definierten Regeln folgend gegen Unendlich gehen, kann die Existenz eines
kontinuierlichen Grenzwertes angenommen werden. Woran erkennt man aber in
diesem Fall, dass die Lorentz-Invarianz in einem solchen Grenzwert wieder
hergestellt wird? Gleichzeitig ist es nicht einfach, die Eichinvarianz auf
einem so gewählten Gitter intakt zu halten.
bottom:.0001pt\'>Zu diesem Zweck wurden
geschicktere Regularisierungen eingeführt, deren physikalische Interpretation
ein wenig komplizierter ist. Die Pauli-Villars-Regularisierung ersetzt den
Propagator durch einen
konvergenteren Propagator
bottom:.0001pt\'>
bottom:.0001pt\'>wobei wiederum eine grosse Zahl ist. Da
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>beschreibt dieser
Propagator eine Theorie, in der ein zusätzliches Teilchen mit der Masse eingeführt wird. Da dessen
Propagator ein negatives Vorzeichen trägt, handelt es sich um kein gewöhnliches
Teilchen. Das negative Vorzeichen deutet an, dass die Wahrscheinlichkeit, ein
solches Teilchen in einem Streuprozess zu erzeugen, negativ ist - eine
physikalische Unsinnigkeit. Die Unitarität ist erhalten, aber nur in den
Kanälen, in denen die Energie nicht ausreicht, schwere Teilchen zu erzeugen.
Sind einige Integrale immer noch divergent, so muss die Prozedur wiederholt
werden, und schon wenige Anwendungen sollten dafür sorgen, dass alle Integrale
konvergieren.
bottom:.0001pt\'>Es ist wichtig zu
wissen, dass die Äquivalenz zwischen dem Gitterregulator und dem
Pauli-Villars-Regulator gezeigt werden kann, d.h. im Grenzwert und
sind die durch beide Schemata produzierten
Amplituden identisch, unter der Voraussetzung, dass die frei wählbaren
Naturkonstanten mit Hilfe einiger Regeln aneinander angepasst werden. Dies ist
eine Eigenschaft, die alle »guten« Regulatoren gemeinsam haben.
bottom:.0001pt\'>Die Pauli-Villars-Regularisierung besitzt zwar den Vorteil der Lorentz- und Rotationsinvarianz, aber damit ist das Problem noch nicht gelöst. Es existiert offensichtlich keine eichinvariante Lagrange-Dichte, die Propagatoren für die Vektorfelder erzeugt, welche das gleiche Konvergenzverhalten wie in Gl. (8) beschrieben besitzen. Ohne Eichinvarianz ist es allerdings schwer zu zeigen, ob die Slawnow-Taylor-Identitäten erfüllt werden können. Aus diesem Grund wurde ein dritter Regulator eingeführt, nämlich die sogenannte dimensionale Regularisierung.
bottom:.0001pt\'>Die dimensionale Regularisierung
wird in zwei Schritten durchgeführt. Zunächst wird eine Definition dafür
angegeben, was es bedeutet, wenn eine Theorie nicht in (oder einer anderen ganzen Zahl), sondern in
Dimensionen zu beschreiben
ist, wobei
eine
kleine, aber nicht verschwindende Zahl ist. Dieser Schritt ist bemerkenswert
einfach, da die meisten Integrationen in den Feynman-Diagrammen in sehr
einfacher Art von der Raum-Zeit-Dimension abhängen und damit eine
unkomplizierte Verallgemeinerung gestatten. In fast allen Fällen benötigt man
lediglich das Integral über einen sphärischen Raum:
bottom:.0001pt\'>
bottom:.0001pt\'>wobei für jede (reelle oder komplexe)
Zahl gewählt werden kann.
ist
die Eulersche Gammafunktion (
-Funktion). Zu beachten ist, dass die
Lorentz-Indizes
von 1
bis
laufen und auch die
Algebra der Dirac-Matrizen
von
abhängt.
bottom:.0001pt\'>Ist nun keine ganze oder einfach
rationale Zahl, so kann jedes divergente Integral relativ einfach durch einen
endlichen Ausdruck ersetzt werden. Man kann zeigen, dass alle in den
Feynman-Diagrammen auftretenden Integrationen in Teile separiert werden können,
die für bestimmte (komplexe) Werte von
konvergieren. Diese können dann für alle
durch analytische
Fortsetzung definiert werden. Nur diejenigen Integrale, die für bestimmte
Integralwerte von
logarithmisch
divergieren, besitzen in diesen Werten eine Singularität. Für
produzieren die Feynman-Amplituden
Werte, die für
mit der
inversen Potenz von
divergieren.
Weil die ursprünglichen Integrale auch quadratische und andere Divergenzen
besitzen, führt diese Definition eines endlichen Teils tatsächlich schon zu
einer Renormierung der Kopplungsparameter, aber dies ist von geringer
Bedeutung.
bottom:.0001pt\'>Es kann also gezeigt werden, dass die dimensional regularisierte Theorie im obigen Sinn äquivalent zu der Pauli-Villars- und der Gitter-regularisierten ist. Jetzt haben wir allerdings einen wichtigen Bonus erhalten: die dimensionale Regularisierung ist eichinvariant. Dieser Aspekt ist von grosser Wichtigkeit für den nächsten Schritt.
bottom:.0001pt\'>
bottom:.0001pt\'>6 Renormierung
bottom:.0001pt\'>Viele der nach einer
der oben beschriebenen Vorschriften berechneten Amplituden divergieren
weiterhin, wenn der Regularisierungsparameter ,
oder
gegen Null geht. Aus diesem Grund werden die
frei wählbaren Parameter der Theorie durch »nackte« Parameter ersetzt. In einer
dimensional regularisierten Theorie schreibt man z.B.
bottom:.0001pt\'>
bottom:.0001pt\'>wobei die renormierte
Kopplung konstant und
endlich für alle Ordnungen ist. In einer renormierbaren Theorie können die
Koeffizienten dieser Reihe so angepasst werden, dass alle zu berechnenden
Streuamplituden bis hin zu einigen Grössenordnungen des (kleinen) Parameters
endlich und wohl definiert
sind. Im allgemeinen Fall existieren verschiedene Kopplungsparameter, die alle
in der Entwicklung auftauchen können.
bottom:.0001pt\'>Eine Komplikation
tritt auf, wenn auch die off-shell-Amplituden endlich sein sollen. Sie
entsprechen den Erwartungswerten von (Produkten von) Feldwerten oder
in einigen S-Matrixelementen. Diese Felder,
die nicht direkt beobachtbar sind, stellen Hilfsgrössen dar, die nützlich bei
der Analyse einer Berechnung oder der Überprüfung der
Slawnow-Taylor-Identitäten sind. Folglich können diese Ausdrücke immer noch
Unendlichkeiten enthalten, die jedoch durch die Renormierung der Felder selbst
eliminiert werden können. Die Tatsache, dass diese Feldrenormierungen explizit
von der gewählten eichfixierenden Prozedur abhängen können, macht die
Überprüfung der Eichinvarianz höchst heikel. Dies ist auch der Grund, warum der
Autor dieses Artikels diese Identitäten ursprünglich nur für die physikalisch
relevanten Amplituden, d.h. die on-shell-Amplituden, benutzt hat.
bottom:.0001pt\'>Es gibt einen
wichtigen Fall, in dem die Renormierungsprozedur nicht angewendet werden kann:
wenn die Theorie eine sogenannte Eichanomalie besitzt. Dieser Fall tritt z.B.
dann auf, wenn Fermionen durch einen der Weyl-Projektionsoperatoren chiral an ein Eichfeld
gekoppelt sind. Da der Massenterm der Fermionen die Chiralität umschaltet,
verletzt die Pauli-Villars- ebenso wie die Gitter-Regularisierung die
Eichinvarianz. Auch die dimensionale Regularisierung wird komplizierter, wenn
ins Spiel kommt. Man hat
herausgefunden, dass die Theorien mit Anomalie grundsätzlich inkonsistent sind,
es sei denn die Eichanomalien verschwinden auf Einschleifenniveau (one-loop
level). Dies steht in enger Beziehung zum Verhalten der Instantonen in der
Theorie: Instantonen erzeugen einen Wechsel der Chiralität und verletzen somit
bestimmte Symmetrien; sie sollten aus diesem Grund nicht an das Eichfeld
koppeln. Im Standardmodell heben sich die Anomalien wie gewünscht weg. Eine
notwendige Bedingung dafür ist, dass die Anzahl der Lepton- gleich der Anzahl
der Quarkgenerationen ist (in unserer Welt sind beide gleich Drei).
bottom:.0001pt\'>Das Verschwinden der
Anomalien auf one-loop-Level reicht aus, um ihre Auslöschung in allen Ordnungen
beweisen zu können (eine von B. Lee und A. Slawnow unabhängig voneinander
entdeckte eichinvariante Regularisierung löst sogar bei Anwesenheit des Termes diese Aufgabe für höhere
Ordnungen).
bottom:.0001pt\'>
bottom:.0001pt\'>7 Die Renormierungsgruppe
bottom:.0001pt\'>Alle Regularisierungen
haben gemeinsam, dass sie eine neue Skalenabhängigkeit in die Theorie einführen,
auch dann, wenn die ursprüngliche Theorie skalenunabhängig war. Theorien wie
die Quantenchromodynamik oder die Quantenelektrodynamik bei Energien wesentlich
grösser als enthalten
nur dimensionslose Parameter, aber die Regularisierung verursacht einen
Zusammenbruch der Skalenunabhängigkeit. Die sogenannte
Callan-Symanzik-Gleichung (Renormierungsgruppengleichung) beschreibt die neue
Skalenabhängigkeit der Amplituden in einer solchen Theorie durch
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>In dieser Gleichung
beschreibt die
Energieskala, auf der die Renormierung definiert ist,
ist eine
-Teilchenamplitude, die sowohl von
als auch von
abhängt. Die Terme
,
und
sind die zu berechnenden Koeffizienten, die
zeigen, wie die renormierten Massen
und Kopplungen
mit der Variation von
skalieren. (In den Originalarbeiten von Callan
und Symanzik hat die obige Gleichung eine etwas andere Form.) Der entscheidende
Ausdruck ist hier der
-Term.
In allen älteren Theorien, d.h. den nicht eichinvarianten und der QED, ist
immer positiv, und dies
wurde von Coleman und Gross allgemein bestätigt. Es war wie ein Schock, als man
entdeckte, dass die nichtabelschen Eichtheorien einen negativen
-Koeffizienten besitzen können. Für
die kleinste nicht-triviale Störungsordnung gilt
bottom:.0001pt\'>
bottom:.0001pt\'>wobei der sogenannte Casimir-Koeffizient
der Eichgruppe,
die
Anzahl der skalaren Teilchen in der einfachen Darstellung und
die Anzahl der (nicht-chiralen)
elementaren Spinoren ist. Für die Farb-Eichgruppe SU(3) folgt
und
. Aus diesem Grund kann diese Theorie bis zu 16
Quark-Flavors enthalten, bevor
sein Vorzeichen ändert. Das negative Vorzeichen
von
impliziert, dass
die effektive Kopplung zu hohen Energien hin anwächst und somit die QCD bei
hohen Energien störungstheoretisch behandelt werden kann (asymptotische Freiheit).
Im Infraroten explodiert die Kopplungskonstante; dies bedeutet, dass sehr starke
Kräfte entstehen. Dieser Aspekt kann erklären, warum Quarks permanent
miteinander verbunden werden können (dieses Confinement-Phänomen kann aber auch
auf viel bessere Weise verstanden werden).
bottom:.0001pt\'>In der allgemeinsten
renormierbaren Quantenfeldtheorie mit vier Raumzeit-Dimension gibt es
Skalarfelder (zur Beschreibung von Spin 0-Teilchen), Dirac-Felder (Spin 1 /
2-Teilchen) und Eichfelder (Spin 1-Teilchen). In diesem allgemeinsten Fall kann
eine Mastergleichung für alle -Koeffizienten aufgestellt und untersucht
werden. Unter der Annahme der Anwesenheit von Eich- und Dirac-Feldern stellt
sich heraus, dass die Skalarfelder nicht, wie teilweise angenommen, die
asymptotische Freiheit unterdrücken. Die gegenwärtige Version des
Standardmodelles ist nicht asymptotisch frei, da es ein
-Eichfeld enthält. Dies stellt aber
kein Problem dar, da bei den höchsten Energien, bei denen dieses Modell
glaubwürdig sein sollte (der Planck-Skala), die laufende
-Kopplungskonstante klein ist.
bottom:.0001pt\'>In der
Festkörperphysik spielt die Renormierungsgruppe eine vergleichbar wichtige
Rolle. Hier stellt man zunächst die Gleichungen der Theorie für das
Molekülniveau auf und berücksichtigt dann die Effekte der Skalierung hin zu
grösseren Raum- und Zeitskalen. In diesem Fall kann eine Theorie selbst-ähnlich
(self-similar) werden, aber da die relevante Zahl der Dimensionen ist, wächst die effektive
Kopplungsstärke beim Übergang zu grösseren Skalen stark an. Dieser Schritt wurde
von K. Wilson und M.E. Fischer gegangen, die verschiedene Prozeduren
entwickelten, um die Freiheitsgrade kleiner Abstände auszuintegrieren, um so
eine Theorie auf sich selbst bei höheren Skalen abzubilden. Auf diese Weise
können die kritischen Koeffizienten eines statistischen Systems bestimmt
werden. Da die Gleichungen aber nur integriert werden können, wenn man von
kleinen zu grossen Skalen übergeht, aber nicht umgekehrt, handelt es sich bei
dieser Renormierungsgruppe lediglich um eine Halbgruppe.
bottom:.0001pt\'>
bottom:.0001pt\'>8 Neue Entwicklungen
bottom:.0001pt\'>Zahlreiche Aspekte der
Renormierung werden auch heutzutage weiterhin untersucht. Eine wichtige
Eigenschaft wurde für supersymmetrische Eichtheorien gefunden. Diese Theorien
tendieren aufgrund ihrer enorm vergrösserten Symmetrie dazu, grundsätzlich
weniger Divergenzen zu besitzen. In der Super-Yang-Mills-Theorie, einer Theorie mit
vier Spinoren und sechs Skalaren in der adjungierten Darstellung (für die
gilt), konvergieren alle
Schleifenintegrale. Tatsächlich liest man an Gl. (13) für diese Theorie
ab. Sie ist nicht nur
skalierungsinvariant, sondern auch invariant unter allen konformen
Raumzeit-Transformationen.
bottom:.0001pt\'>Die Renormierung der
Quantengravitation wurde gründlich untersucht, aber da Newtons Konstante , die als Störungsparameter
benutzt wird, die Dimension -2 hat, ist
diese Theorie nicht renormierbar. Für die aufeinanderfolgenden Ordnungen in der
störungstheoretischen Entwicklung müssen der Lagrange-Dichte mehr und mehr neue
Counterterme zur Renormierung hinzugefügt werden. In manchen Fällen wird die
Anzahl dieser unerwünschten Terme durch die Symmetrie eingeschränkt. Werden
keine Materiefelder eingeführt, so bleibt die reine Gravitation renormierbar
auf Einschleifenniveau, einfach aus dem Grund, weil keine invariante Kopplung
der entsprechenden Dimension existiert. Supergravitations-Theorien werden noch
weiter durch die Supersymmetrie eingeschränkt, aber bei ihnen treten
unvermeidliche Divergenzen bei höheren Störungsordnungen auf. Moderne Theorien
benutzen zumeist eine grössere Raumzeit-Dimension als Ausgangspunkt, wobei die
zusätzlichen Dimensionen kompaktifiziert sind (Kompaktifizierung), aber auch
das zerstört die Renormierbarkeit. Die Superstring-Theorie (String-Theorie) ist
ebenfalls in einem 10-dimensionalen Raum definiert, aber deren Symmetrien sind
so gewaltig, dass alle Schleifenintegrationen konvergieren und keine
Renormierung nötig ist.
bottom:.0001pt\'>Sowohl die Theorien zur Beschreibung von Elementarteilchen als auch die zur Beschreibung der kondensierten Materie besitzen heute eine Schichtenstruktur: für verschiedene typische Abstände und Zeitbereiche werden verschiedene Modelle zu deren Beschreibung herangezogen, und bei einer kontinuierlichen Änderung der Skala variieren die relevanten Kopplungsparameter entsprechend. In diesem Fall spricht man von einer »laufenden» Kopplungsstärke (running coupling). Wird der Kopplungsparameter für eine bestimmte Skala sehr gross, wird die störungstheoretische Behandlung ungeeignet und muss durch eine effektivere, alternative Beschreibung mit kleineren Störungskopplungen ersetzt werden. Die Quantenchromodynamik ist für alle Energiebereiche von 1 GeV bis hin zu einigen tausend TeV geeignet, unterhalb von 1 GeV müssen allerdings Hadronen, wie z.B. Pion, Proton und Neutron, betrachtet werden. Bei kleinen Energien sind deren effektiven Kopplungen sehr schwach, und es bieten sich zur effektiven Beschreibung einfache Hadronen-Modelle an. Bei noch kleineren Energien, d.h. grösseren Abständen, können nicht-relativistische Modelle herangezogen werden, die z.B. Atomkerne beschreiben.
bottom:.0001pt\'>Dieser Artikel konnte hoffentlich einige der grundsätzlichen Geheimnisse lüften, die mit der Renormierung verbunden sind.
bottom:.0001pt\'>
bottom:.0001pt\'>Literatur:
bottom:.0001pt\'>Geschichte der Renormierung:
bottom:.0001pt\'>A. Pais, Inward bound: of matter and forces in the physical world, Oxford University Press 1986.
bottom:.0001pt\'>R.P. Crease und C.C. Mann, The Second Creation: makers of the revolution in twentieth-century physics, New York, Macmillan, 1986.
bottom:.0001pt\'>G. \'t Hooft, In search of the ultimate building blocks, Cambridge University Press 1997.
bottom:.0001pt\'>Renormierung in Eichtheorien:
bottom:.0001pt\'>G. \'t Hooft und M. Veltman, DIAGRAMMAR, CERN Report 73/9 (1973), Neudruck in: D. Speiser et al (Hrsg.), Particle Interactions at Very High Energies, Nato Adv. Study Inst. Series, Sect. B, Vol. 4b (1973), S. 177; und: G. \'t Hooft, Under the Spell of the Gauge Principle, Adv. Series in Math. Phys. Vol 19, World Scientific, Singapore, 1994.
bottom:.0001pt\'>Über Quantenfeldtheorie und Renormierung:
bottom:.0001pt\'>L.H. Ryder, Quantum Field Theory, Cambridge University Press, 1985, 1996.
Das freie Technik-Lexikon. Fundierte Informationen zu allen Fachgebieten der Ingenieurwissenschaften, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
TechniklexikonModernes Studium der Physik sollte allen zugängig gemacht werden.