Teilchenphysik
bottom:.0001pt\'>1 Einleitung
bottom:.0001pt\'>Das Konzept der Renormierung ist ein notwendiger Bestandteil in der Festkörpertheorie und der Quantenfeldtheorie zur Beschreibung subatomarer relativistischer Teilchen. Diese Theorien basieren auf einem Satz von Grundgleichungen, die beschreiben, wie die beteiligten Teilchen und/oder Felder in kleinen Abständen miteinander wechselwirken. Die Gleichungen sind für Festkörpersysteme gegeben durch den Hamilton-Operator und in der Quantenfeldtheorie durch die Wirkung , wobei die Lagrange-Dichte ist. Diese Ausdrücke enthalten eine Anzahl von willkürlichen Parametern wie die Masse der Teilchen und die Stärke der wechselwirkenden Kräfte, z.B. derjenigen, die durch die elektrische Ladung hervorgerufen werden.
bottom:.0001pt\'>Die Berechnung der Wechselwirkung dieser Teilchen für grosse Abstände und Zeiten ergibt, dass die Teilchen sich verhalten, als ob ihre Massen und Wechselwirkungskräfte verschieden sind. Diese Unterschiede werden aber durch die Wechselwirkung selbst hervorgerufen. Sind bzw. die ursprüngliche »nackte« Masse bzw. Ladung bei einem Abstand und bzw. (der Index »R« steht für renormiert) die effektive Masse bzw. Ladung bei einem grösseren Abstand , so gelten die Beziehungen:
bottom:.0001pt\'>
bottom:.0001pt\'>Für die meisten Theorien divergieren die Renormierungskonstanten und , wenn das Verhältnis der Abstandsskalierung gegen Unendlich geht. Aus diesem Grund gibt es keine strenge lokale Definition von und , wenn infinitesimal ist. Dadurch sind die Renormierungskonstanten unendlich gross bzw. schlecht definiert.
bottom:.0001pt\'>Dagegen ist im Fall der klassischen Mechanik die Situation relativ einfach. Newton und Leibnitz fanden heraus, dass unter der Annahme kleiner Zeitschritte und entsprechend kleiner Auslenkungen das Verhältnis wohl definierte Grenzwerte besitzt. Unter dieser Voraussetzung wurde die Theorie der Differentialgleichungen entwickelt. In Festkörpersystemen und in der Quantenfeldtheorie ist die Situation jedoch komplizierter.
bottom:.0001pt\'>
bottom:.0001pt\'>2 Kurzer Überblick über die Geschichte der Renormierung
bottom:.0001pt\'>Die heutzutage als Quantenelektrodynamik (QED) bezeichnete Theorie wurde begründet, als M. Born, W. Heisenberg und P. Jordan die Regeln für die Erzeugung und Vernichtung von Teilchen formulierten und P.A.M. Dirac seine berühmten Gleichungen für ein relativistisches Elektron in einem elektromagnetischen Feld aufstellte. Unvermeidlicherweise setzt diese Theorie voraus, dass eine unbegrenzte Anzahl von Teilchen während des Wechselwirkungsprozesses erzeugt und vernichtet werden kann. Je höher die Genauigkeit der Rechnung ist, desto grösser wird die Zahl der involvierten Teilchen. Besonders in diesen störungstheoretischen Rechnungen hoher Ordnung tauchen die Schwierigkeiten der »Unendlichkeiten« auf.
bottom:.0001pt\'>Die Tatsache, dass das Strahlungsfeld zur Masse des Elektrons beiträgt, folgt bereits aus den Maxwell-Gleichungen für den Elektromagnetismus, in Kombination mit der Speziellen Relativitätstheorie von Einstein. In diesem Rahmen ergibt sich, dass für eine kleine Murmel mit dem Radius seine Masse auf
bottom:.0001pt\'>
bottom:.0001pt\'>anwachsen würde (in MKS-Einheiten).
bottom:.0001pt\'>Unter der Annahme eines punktförmigen Elektrons () mit einer physikalischen Masse als aktueller Elektronenmasse würde daraus folgen, dass negativ und unendlich sein muss - eine sinnlose instabile Situation. In der Quantentheorie kann der Ausdruck in erster Näherung durch die Compton-Wellenlänge ersetzt werden. Dies entspricht jedoch nicht dem Ergebnis aus der QED, da hier die Divergenz im Gegensatz zu Gl. (2) kein lineares, sondern ein logarithmisches Verhalten in zeigt.
bottom:.0001pt\'>Dirac und ebenso W.H. Furry und J.R. Oppenheimer erkannten, dass das starke elektrische Feld in der Nähe des Elektrons zu einer kleinen Trennung der virtuellen Elektron-Positron-Paare führt, und dieser als Vakuumpolarisation bezeichnete Effekt schirmt die Elektronenladung ab. Aufgrund der Vakuumpolarisation ist die wirkliche Elektronenladung kleiner als die der »nackten« Ladung , und diese Renormierung geht wiederum gegen unendlich und zwar logarithmisch mit . In früheren Rechnungen gab es Anhaltspunkte dafür, dass auch die Photonenmasse einer unendlichen Renormierung unterliegt. Da dieses Resultat jedoch der Eichinvarianz widerspricht, wurde es nicht weiter ernst genommen.
bottom:.0001pt\'>Einer der ersten, der verstand, dass alle diese Renormierungen gemeinsam in einem einzigen Programm behandelt werden müssen, war H.A. Kramers. Zusammen mit R.L. de Kronig entwickelte er ein Gleichungssystem, die sogenannten Dispersionsrelationen, die lediglich unter der Annahme, dass Ursache und Wirkung zeitlich geordnet werden müssen, die Berechnung von Effekten höherer Ordnung unter Vermeidung von einigen unendlichen Grössen erlaubt. In einer berühmten Konferenz in Shelter Island nahe New York berichtete W. Lamb 1947 über eine anormale Verschiebung von ca. 1000 MHz, die er zwischen dem -Zustand und dem -Zustand des Wasserstoffatomes gemessen hatte. H. Bethe lieferte nur fünf Tage nach dieser Konferenz eine Erklärung für diesen sogenannten Lamb-Shift, wobei er eine einfache Massenrenormierungstechnik benutzte, dabei allerdings die logarithmische Divergenz bei der Compton-Wellenlänge des Elektrones abschnitt (cut-off). Sein Ergebnis für die Verschiebung war mit 1040 MHz bemerkenswert nahe am gemessenen Wert von Lamb. Die genaue Korrektur zur Ordnung wurde zuerst von S. Tomonaga und Co-Autoren berechnet.
bottom:.0001pt\'>Ebenfalls 1947 konnte J. Schwinger erfolgreich die höheren Korrekturterme des magnetischen Moments des Elektrons berechnen, welches durch das gyromagnetische Verhältnis (laut Diracs alter Gleichung ist ) beschrieben wird:
bottom:.0001pt\'>
bottom:.0001pt\'>Hierbei ist . Das Resultat stimmt gut mit dem experimentellen Wert von 1,00118 überein.
bottom:.0001pt\'>Ein vollständiges Verfahren zur Berechnung aller Korrekturterme zu jeder Potenz von wurde von R.P. Feynman, F. Dyson, A. Salam und anderen ausgearbeitet. Ihre Methoden waren streng begrenzt auf die elektromagnetische Wechselwirkung zwischen Elektronen und Photonen. Erst nach und nach wurde die Aufmerksamkeit auch auf andere Wechselwirkungskräfte gelenkt. So etablierte E. Fermi eine Gleichung für die schwache Wechselwirkung, die später von E.C.G. Sudarshan und R.E. Marshak und unabhängig davon von Feynman und M. Gell-Mann verfeinert wurde. Diese Theorie liess sich jedoch nicht renormieren, was bedeutete, dass sich die unendlichen Terme in ihrer Struktur von den ursprünglichen unterschieden und durch eine Neudefinition der letzteren nicht aufgefangen werden konnten. Die starke Wechselwirkung stellt ein weiteres grosses Problem dar: die Kopplungsstärke der starken Kraft ist so gross, dass eine systematische Entwicklung nach den Potenzen dieser Wechselwirkung sinnlos ist.
bottom:.0001pt\'>Die nichtabelsche Eichtheorie, die in der Literatur zuerst von C.N. Yang und R.L. Mills im Jahr 1954 beschrieben wurde, besass eine Form, die Renormierbarkeit vermuten liess. Diese Theorie stellt eine direkte Erweiterung der Maxwell-Gleichungen mit einem grösseren Satz von Vektorfeldern dar. Der 1964 vorgestellte Englert-Brout-Higgs-Mechanismus deutet auf eine zusätzliche Existenz von Skalarfeldern hin. Mit diesem Ansatz konstruierten S. Weinberg und A. Salam unabhängig voneinander ein Modell für die schwache Wechselwirkung, das renormierbar schien, aber beide waren nicht in der Lage, Rechnungen höherer Störungsordnungen durchzuführen. Zu dieser Zeit wurde die Quantenfeldtheorie jedoch vor allem aufgrund ihrer komplexen Natur, der erforderlichen unendlichen Renormierungen und der entwickelten unrealistischen Theorien abgelehnt. Darüber hinaus liess sich mit der als Renormierungsgruppe bekannten Technik nicht-störungstheoretisch argumentieren, dass die »nackten« Ladungen oberhalb hoher Energien, also bei kleinen Abständen, unphysikalische Werte besitzen können. L. Landau folgerte, dass physikalisch nicht akzeptable Singularitäten auftreten können.
bottom:.0001pt\'>Der Autor dieses Essays entdeckte 1971, dass Theorien vom Englert-Brout-Higgs-Typ renormierbar sind, und gab eine vollständige Beschreibung zur Berechnung der höheren Ordnungen der Störungsreihe. Zusätzlich fand er heraus, dass die Landau-Singularität nicht in einer Yang-Mills-Theorie der starken Wechselwirkung auftaucht. Diese Besonderheit wurde 1973 von D. Politzer, D. Gross und F. Wilczek wiederaufgenommen und als »asymptotische Freiheit« bezeichnet.
bottom:.0001pt\'>Dieses Renormierungsverfahren ist eindeutig und hinterlässt keine divergenten Terme in den physikalisch messbaren Grössen. Lediglich die »nackten« Parameter, die nicht direkt gemessen werden können, sind divergent. Daraus folgt, dass alle messbaren Grössen der Theorie berechnet werden können, ausgedrückt durch einige frei wählbare Parameter, den physikalischen Konstanten. Eine Schwierigkeit trat in Theorien mit chiralen Wechselwirkungen auf, die unter der Bezeichnung Anomalien bekannt wurde. Dieses Problem wurde unabhängig voneinander von S. Adler und J. Bell sowie R. Jackiw entdeckt. Eine Theorie, die Anomalien besitzt, kann nur renormiert werden, wenn diese Anomalien beseitigt sind. Die Bedingungen zur Beseitigung bilden einfache algebraische Einschränkungen an die Struktur einer Theorie. Später fand man heraus, dass diese Anomalien in Beziehung zu einer nicht-perturbativen Symmetriebrechung stehen, die durch Instantonen hervorgerufen wird. Die Tatsache, dass es keine weiteren Hindernisse gibt, die die Renormierung gefährden, fand seine Bestätigung, als \'t Hooft und M. Veltman 1972 ihr Konzept der dimensionalen Renormierung einführten.
bottom:.0001pt\'>Das Standardmodell der Elementarteilchen ist ein spezielles, Anomalie-freies Beispiel für ein Eglert-Brout-Higgs-System und - soweit heutzutage bekannt - in der Lage, alle bekannten Wechselwirkungen zwischen den Elementarteilchen genau zu beschreiben. Bei Energien, die mit den heutzutage eingesetzten Teilchenbeschleunigern noch unerreichbar sind, erwartet man allerdings, dass das Standardmodell beträchtliche Anpassungen erfordert. Abgesehen von den sehr schwachen Effekten aufgrund einer endlichen Neutrinomasse erfordert das gegenwärtige Modell nicht mehr als 20 frei wählbare Konstanten. Zahlreiche Arbeiten der letzten Jahrzehnte bestätigten und verfeinerten das Standardmodell.
bottom:.0001pt\'>
bottom:.0001pt\'>3 Feynman-Regeln
bottom:.0001pt\'>Das Gebiet der Quantenfeldtheorie ist zu kompliziert, um in diesem Artikel ausführlich behandelt zu werden. Aus diesem Grund werden wir lediglich eine kurze Zusammenfassung der allgemeinen Ideen geben. Die Teilchen-Wechselwirkung kann verdeutlicht werden, indem jeder Beitrag zur Störungsentwicklung in Form eines Feynman-Diagramms beschrieben wird. Der Propagator für ein skalares Teilchen der Masse ist beispielsweise gegeben durch den Ausdruck
bottom:.0001pt\'>
bottom:.0001pt\'>wobei für steht, eine infinitesimale positive Grösse und die Masse des Teilchens ist. Für ein Spin -Teilchens lautet er
bottom:.0001pt\'>
bottom:.0001pt\'>Der Propagator zur Beschreibung eines Vektorteilchens erfordert dagegen mehr Aufwand. Aus der Unitarität der resultierenden Streuamplitude folgt für den Propagator folgende Form:
bottom:.0001pt\'>
bottom:.0001pt\'>Der Term würde jedoch die Mehrzahl der Diagramme für grosse -Werte so divergent machen, dass die Theorie nicht renormierbar ist. Nur wenn die Theorie eichinvariant und das betrachtete Vektorteilchen eine Eichboson ist, dessen Masse durch Higgs-Mechanismus erzeugt wird, können die Feynman-Regeln derart transformiert werden, dass der Propagator folgende Form erhält:
bottom:.0001pt\'>
bottom:.0001pt\'>Hier ist ein freier Parameter (der Eichparameter), der meist zu 0 oder 1 gewählt wird. In diesem Fall existieren zusätzliche Geisterfelder, Fadejew-Popow-Geister genannt, die fiktive Beiträge zu den Feynman-Regeln liefern. Sie sehen wie (komplexe) skalare Teilchen aus, stellen aber in Wirklichkeit keine physikalisch beobachtbaren Zustände dar.
bottom:.0001pt\'>Die Gleichheit der Propagatoren (6) und (7) in Kombination mit den notwendigen Beiträgen durch die Fadejew-Popow-Geister folgt aus den Slawnow-Taylor-Identitäten, die die Ward-Identitäten aus der Quantenelektrodynamik verallgemeinern. Im einfachsten Fall stellen die Slawnow-Taylor-Identitäten sicher, dass für die höheren Schleifenkorrekturen (loop corrections) des Propagators eines masselosen Bosons gilt. Im Grunde beschreiben die Slawnow-Taylor-Identitäten die Tatsache, dass die Eichfixierung einer Feldtheorie, z.B. durch die Lorentz-Eichung , eine neue Symmetrie hervorruft, die von C. Becchi, A. Rouet, R. Stora (und unabhängig davon I.V. Tyutin) entdeckte BRS-Symmetrie.
bottom:.0001pt\'>Die Feynman-Regeln können in einer knappen Form definiert werden, nämlich durch den Lagrange-Dichte einer eichfixierten Theorie. Die Propagatoren erhält man aus den Anteilen in der Lagrange-Dichte, die bilinear in den Feldern sind, als das negative Inverse ihrer Fourier-Koeffizienten. Zum Beispiel erhält man den Propagator (4) eines (komplexen) skalaren Teilchens aus dem Term . Die Vertizes folgen aus den Termen höherer Ordnung. So entspricht z.B. der Ausdruck einem Vertex, der Teilchen 1 mit Teilchen 2 und Teilchen 3 verbindet, mit zu proportionaler Amplitude. Anhand genauer Regeln ist es möglich, den Geisterbeitrag zur Lagrange-Dichte aus den eichfixierenden Termen durch die Anwendung infinitesimaler Eichtransformationen auf diese Terme abzuleiten.
bottom:.0001pt\'>
bottom:.0001pt\'>4 Renormierbarkeit
bottom:.0001pt\'>Ob eine Theorie störungstheoretisch renormierbar ist, zeigt im Prinzip direkt die Lagrange-Dichte. Die Schwierigkeit besteht gewöhnlich darin, dass zum einen eine eichfixierende Prozedur zu finden ist, die die Lagrange-Dichte in die gewünschte Form überführt, und dass zum anderen die notwendigen Slawnow-Taylor-Identitäten erfüllt sein müssen, damit die verschiedenen Eichfixierungen äquivalent sind. Der letzte Punkt ist besonders wichtig, da die Äquivalenz der verschiedenen Eichungen notwendig ist, um nach der erfolgten Renormierung zu prüfen, ob die erhaltene Theorie unitär und deshalb nützlich zur Beschreibung der realen Welt ist.
bottom:.0001pt\'>Die entscheidende Regel ist ganz einfach, dass alle Propagatoren die Form (4), (5) oder (7), aber nicht (6), besitzen und die Dimension aller Kopplungsparameter in jeder Ordnung gleich oder grösser Null ist. Die Dimension bestimmt sich dadurch, dass man der Lagrange-Funktion die Dimension (die Anzahl der Dimensionen in Raum und Zeit und im allgemeinen gleich 4), einer Ableitung (oder einem Impuls ) oder einer Masse die Dimension Eins und den Feldern die Dimensionen zuordnet, die zu den bilinearen Termen in passen. In der vierdimensionalen Raumzeit besitzen Skalarfelder und Vektorfelder also die Dimension Eins und Spinorfelder die Dimension 3 / 2. Eine Kopplungskonstante, die mit vier Skalar- oder Vektorfeldern multipliziert wird, hat die Dimension Null und eine Konstante, die drei solcher Felder multipliziert (und keine Ableitungen) die Dimension Eins. Wenn nun die obige Bedingung erfüllt ist, erkennt man, dass in den Amplituden höherer Ordnungen nur genau so viele oder weniger Potenzen der Impulse wie in den Ausdrücken mit kleinerer Ordnung auftreten. Der Grad der Divergenz eines Integrales über einen Impuls in einem Feynman-Diagramm kann nun direkt abgelesen werden.
bottom:.0001pt\'>Obwohl allzu technische Beiträge in diesem Artikel vermieden werden sollen, muss der Begriff des irreduziblen Feynman-Diagrammes eingeführt werden. Dabei handelt es sich um ein Diagramm, das nicht durch das Zerschneiden genau eines Propagators in voneinander unabhängige Teile separiert werden kann. Alle Feynman-Diagramme können auf einfache Weise in Produkte aus den irreduziblen Darstellungen zerlegt werden. Nur die irreduziblen Darstellungen, die zur Energie des Vakuums beitragen, besitzen einen Grad der Divergenz gleich der Raum-Zeit-Dimension ; alle anderen irreduziblen Diagramme sind weniger divergent. Man erkennt, dass nur diejenigen irreduziblen Diagramme, die zur Renormierung der Kopplungsparameter mit nicht-negativer Dimension beitragen, divergent sein müssen (abgesehen von den divergenten Sub-Diagrammen, die getrennt betrachtet werden müssen). Damit lässt sich die Bedingung zur Renormierung genauer formulieren: alle Wechselwirkungsterme, die konsistent mit einer gegebenen Symmetrie sind und durch einen Störungsparameter mit nicht-negativer Dimension beschrieben werden, müssen vorhanden sein. In diesem Fall sind die einzigen divergenten Integrale diejenigen, die Renormierungen der gegebenen Wechselwirkungsparameter entsprechen.
bottom:.0001pt\'>
bottom:.0001pt\'>5 Regularisierung
bottom:.0001pt\'>Wir sind nun vorbereitet, eine strenge Strategie zur Definition einer sinnvollen Theorie entwerfen zu können. Dazu müssen wir zunächst die Theorie regulär machen, d.h. einige Abschneidebedingungen (cut-off) einführen, um alle Integrale endlich oder zumindest konvergent zu machen. Aus diesem Grund werden leichte Modifikationen der Theorie auf einer Abstandsskala eingeführt, die so klein ist, dass sie die zu beschreibenden Phänomene nicht direkt beeinflussen. Das einfachste Beispiel einer solcher Modifikation oder Regularisierung ist das Ersetzen des kontinuierlichen Raumes durch ein sehr feines Gitter (Lattice). Dieses sorgt automatisch dafür, dass alle Raumkomponenten des Impulses auf den Bereich beschränkt sind, wobei eine grosse Zahl und der Abstand zwischen den Gitterpunkten ist. Natürlich sind in einer solchen Theorie alle Integral(wert)e endlich. Da die Zeit weiterhin kontinuierlich ist, stellt sich zwar nicht das Problem mit der Unitarität, aber die Lorentz-Invarianz und sogar die Rotationsinvarianz gehen offensichtlich verloren.
bottom:.0001pt\'>Es ist nicht schwer zu erkennen, dass in diesem Ansatz ein kontinuierlicher Grenzwert existiert, ausser in den Fällen, in denen das Integral divergiert. Dies tritt aber ja nur dann auf, wenn wir - wie bereits erwähnt - eine frei wählbare physikalische Konstante zur Hand haben und diesen Parameter so definieren bzw. renormieren können, dass er die Unendlichkeit neutralisiert. Wenn also die »nackten« Konstanten für einigen definierten Regeln folgend gegen Unendlich gehen, kann die Existenz eines kontinuierlichen Grenzwertes angenommen werden. Woran erkennt man aber in diesem Fall, dass die Lorentz-Invarianz in einem solchen Grenzwert wieder hergestellt wird? Gleichzeitig ist es nicht einfach, die Eichinvarianz auf einem so gewählten Gitter intakt zu halten.
bottom:.0001pt\'>Zu diesem Zweck wurden geschicktere Regularisierungen eingeführt, deren physikalische Interpretation ein wenig komplizierter ist. Die Pauli-Villars-Regularisierung ersetzt den Propagator durch einen konvergenteren Propagator
bottom:.0001pt\'>
bottom:.0001pt\'>wobei wiederum eine grosse Zahl ist. Da
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>beschreibt dieser Propagator eine Theorie, in der ein zusätzliches Teilchen mit der Masse eingeführt wird. Da dessen Propagator ein negatives Vorzeichen trägt, handelt es sich um kein gewöhnliches Teilchen. Das negative Vorzeichen deutet an, dass die Wahrscheinlichkeit, ein solches Teilchen in einem Streuprozess zu erzeugen, negativ ist - eine physikalische Unsinnigkeit. Die Unitarität ist erhalten, aber nur in den Kanälen, in denen die Energie nicht ausreicht, schwere Teilchen zu erzeugen. Sind einige Integrale immer noch divergent, so muss die Prozedur wiederholt werden, und schon wenige Anwendungen sollten dafür sorgen, dass alle Integrale konvergieren.
bottom:.0001pt\'>Es ist wichtig zu wissen, dass die Äquivalenz zwischen dem Gitterregulator und dem Pauli-Villars-Regulator gezeigt werden kann, d.h. im Grenzwert und sind die durch beide Schemata produzierten Amplituden identisch, unter der Voraussetzung, dass die frei wählbaren Naturkonstanten mit Hilfe einiger Regeln aneinander angepasst werden. Dies ist eine Eigenschaft, die alle »guten« Regulatoren gemeinsam haben.
bottom:.0001pt\'>Die Pauli-Villars-Regularisierung besitzt zwar den Vorteil der Lorentz- und Rotationsinvarianz, aber damit ist das Problem noch nicht gelöst. Es existiert offensichtlich keine eichinvariante Lagrange-Dichte, die Propagatoren für die Vektorfelder erzeugt, welche das gleiche Konvergenzverhalten wie in Gl. (8) beschrieben besitzen. Ohne Eichinvarianz ist es allerdings schwer zu zeigen, ob die Slawnow-Taylor-Identitäten erfüllt werden können. Aus diesem Grund wurde ein dritter Regulator eingeführt, nämlich die sogenannte dimensionale Regularisierung.
bottom:.0001pt\'>Die dimensionale Regularisierung wird in zwei Schritten durchgeführt. Zunächst wird eine Definition dafür angegeben, was es bedeutet, wenn eine Theorie nicht in (oder einer anderen ganzen Zahl), sondern in Dimensionen zu beschreiben ist, wobei eine kleine, aber nicht verschwindende Zahl ist. Dieser Schritt ist bemerkenswert einfach, da die meisten Integrationen in den Feynman-Diagrammen in sehr einfacher Art von der Raum-Zeit-Dimension abhängen und damit eine unkomplizierte Verallgemeinerung gestatten. In fast allen Fällen benötigt man lediglich das Integral über einen sphärischen Raum:
bottom:.0001pt\'>
bottom:.0001pt\'>wobei für jede (reelle oder komplexe) Zahl gewählt werden kann. ist die Eulersche Gammafunktion (-Funktion). Zu beachten ist, dass die Lorentz-Indizes von 1 bis laufen und auch die Algebra der Dirac-Matrizen von abhängt.
bottom:.0001pt\'>Ist nun keine ganze oder einfach rationale Zahl, so kann jedes divergente Integral relativ einfach durch einen endlichen Ausdruck ersetzt werden. Man kann zeigen, dass alle in den Feynman-Diagrammen auftretenden Integrationen in Teile separiert werden können, die für bestimmte (komplexe) Werte von konvergieren. Diese können dann für alle durch analytische Fortsetzung definiert werden. Nur diejenigen Integrale, die für bestimmte Integralwerte von logarithmisch divergieren, besitzen in diesen Werten eine Singularität. Für produzieren die Feynman-Amplituden Werte, die für mit der inversen Potenz von divergieren. Weil die ursprünglichen Integrale auch quadratische und andere Divergenzen besitzen, führt diese Definition eines endlichen Teils tatsächlich schon zu einer Renormierung der Kopplungsparameter, aber dies ist von geringer Bedeutung.
bottom:.0001pt\'>Es kann also gezeigt werden, dass die dimensional regularisierte Theorie im obigen Sinn äquivalent zu der Pauli-Villars- und der Gitter-regularisierten ist. Jetzt haben wir allerdings einen wichtigen Bonus erhalten: die dimensionale Regularisierung ist eichinvariant. Dieser Aspekt ist von grosser Wichtigkeit für den nächsten Schritt.
bottom:.0001pt\'>
bottom:.0001pt\'>6 Renormierung
bottom:.0001pt\'>Viele der nach einer der oben beschriebenen Vorschriften berechneten Amplituden divergieren weiterhin, wenn der Regularisierungsparameter , oder gegen Null geht. Aus diesem Grund werden die frei wählbaren Parameter der Theorie durch »nackte« Parameter ersetzt. In einer dimensional regularisierten Theorie schreibt man z.B.
bottom:.0001pt\'>
bottom:.0001pt\'>wobei die renormierte Kopplung konstant und endlich für alle Ordnungen ist. In einer renormierbaren Theorie können die Koeffizienten dieser Reihe so angepasst werden, dass alle zu berechnenden Streuamplituden bis hin zu einigen Grössenordnungen des (kleinen) Parameters endlich und wohl definiert sind. Im allgemeinen Fall existieren verschiedene Kopplungsparameter, die alle in der Entwicklung auftauchen können.
bottom:.0001pt\'>Eine Komplikation tritt auf, wenn auch die off-shell-Amplituden endlich sein sollen. Sie entsprechen den Erwartungswerten von (Produkten von) Feldwerten oder in einigen S-Matrixelementen. Diese Felder, die nicht direkt beobachtbar sind, stellen Hilfsgrössen dar, die nützlich bei der Analyse einer Berechnung oder der Überprüfung der Slawnow-Taylor-Identitäten sind. Folglich können diese Ausdrücke immer noch Unendlichkeiten enthalten, die jedoch durch die Renormierung der Felder selbst eliminiert werden können. Die Tatsache, dass diese Feldrenormierungen explizit von der gewählten eichfixierenden Prozedur abhängen können, macht die Überprüfung der Eichinvarianz höchst heikel. Dies ist auch der Grund, warum der Autor dieses Artikels diese Identitäten ursprünglich nur für die physikalisch relevanten Amplituden, d.h. die on-shell-Amplituden, benutzt hat.
bottom:.0001pt\'>Es gibt einen wichtigen Fall, in dem die Renormierungsprozedur nicht angewendet werden kann: wenn die Theorie eine sogenannte Eichanomalie besitzt. Dieser Fall tritt z.B. dann auf, wenn Fermionen durch einen der Weyl-Projektionsoperatoren chiral an ein Eichfeld gekoppelt sind. Da der Massenterm der Fermionen die Chiralität umschaltet, verletzt die Pauli-Villars- ebenso wie die Gitter-Regularisierung die Eichinvarianz. Auch die dimensionale Regularisierung wird komplizierter, wenn ins Spiel kommt. Man hat herausgefunden, dass die Theorien mit Anomalie grundsätzlich inkonsistent sind, es sei denn die Eichanomalien verschwinden auf Einschleifenniveau (one-loop level). Dies steht in enger Beziehung zum Verhalten der Instantonen in der Theorie: Instantonen erzeugen einen Wechsel der Chiralität und verletzen somit bestimmte Symmetrien; sie sollten aus diesem Grund nicht an das Eichfeld koppeln. Im Standardmodell heben sich die Anomalien wie gewünscht weg. Eine notwendige Bedingung dafür ist, dass die Anzahl der Lepton- gleich der Anzahl der Quarkgenerationen ist (in unserer Welt sind beide gleich Drei).
bottom:.0001pt\'>Das Verschwinden der Anomalien auf one-loop-Level reicht aus, um ihre Auslöschung in allen Ordnungen beweisen zu können (eine von B. Lee und A. Slawnow unabhängig voneinander entdeckte eichinvariante Regularisierung löst sogar bei Anwesenheit des Termes diese Aufgabe für höhere Ordnungen).
bottom:.0001pt\'>
bottom:.0001pt\'>7 Die Renormierungsgruppe
bottom:.0001pt\'>Alle Regularisierungen haben gemeinsam, dass sie eine neue Skalenabhängigkeit in die Theorie einführen, auch dann, wenn die ursprüngliche Theorie skalenunabhängig war. Theorien wie die Quantenchromodynamik oder die Quantenelektrodynamik bei Energien wesentlich grösser als enthalten nur dimensionslose Parameter, aber die Regularisierung verursacht einen Zusammenbruch der Skalenunabhängigkeit. Die sogenannte Callan-Symanzik-Gleichung (Renormierungsgruppengleichung) beschreibt die neue Skalenabhängigkeit der Amplituden in einer solchen Theorie durch
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>In dieser Gleichung beschreibt die Energieskala, auf der die Renormierung definiert ist, ist eine -Teilchenamplitude, die sowohl von als auch von abhängt. Die Terme , und sind die zu berechnenden Koeffizienten, die zeigen, wie die renormierten Massen und Kopplungen mit der Variation von skalieren. (In den Originalarbeiten von Callan und Symanzik hat die obige Gleichung eine etwas andere Form.) Der entscheidende Ausdruck ist hier der -Term. In allen älteren Theorien, d.h. den nicht eichinvarianten und der QED, ist immer positiv, und dies wurde von Coleman und Gross allgemein bestätigt. Es war wie ein Schock, als man entdeckte, dass die nichtabelschen Eichtheorien einen negativen -Koeffizienten besitzen können. Für die kleinste nicht-triviale Störungsordnung gilt
bottom:.0001pt\'>
bottom:.0001pt\'>wobei der sogenannte Casimir-Koeffizient der Eichgruppe, die Anzahl der skalaren Teilchen in der einfachen Darstellung und die Anzahl der (nicht-chiralen) elementaren Spinoren ist. Für die Farb-Eichgruppe SU(3) folgt und . Aus diesem Grund kann diese Theorie bis zu 16 Quark-Flavors enthalten, bevor sein Vorzeichen ändert. Das negative Vorzeichen von impliziert, dass die effektive Kopplung zu hohen Energien hin anwächst und somit die QCD bei hohen Energien störungstheoretisch behandelt werden kann (asymptotische Freiheit). Im Infraroten explodiert die Kopplungskonstante; dies bedeutet, dass sehr starke Kräfte entstehen. Dieser Aspekt kann erklären, warum Quarks permanent miteinander verbunden werden können (dieses Confinement-Phänomen kann aber auch auf viel bessere Weise verstanden werden).
bottom:.0001pt\'>In der allgemeinsten renormierbaren Quantenfeldtheorie mit vier Raumzeit-Dimension gibt es Skalarfelder (zur Beschreibung von Spin 0-Teilchen), Dirac-Felder (Spin 1 / 2-Teilchen) und Eichfelder (Spin 1-Teilchen). In diesem allgemeinsten Fall kann eine Mastergleichung für alle -Koeffizienten aufgestellt und untersucht werden. Unter der Annahme der Anwesenheit von Eich- und Dirac-Feldern stellt sich heraus, dass die Skalarfelder nicht, wie teilweise angenommen, die asymptotische Freiheit unterdrücken. Die gegenwärtige Version des Standardmodelles ist nicht asymptotisch frei, da es ein -Eichfeld enthält. Dies stellt aber kein Problem dar, da bei den höchsten Energien, bei denen dieses Modell glaubwürdig sein sollte (der Planck-Skala), die laufende -Kopplungskonstante klein ist.
bottom:.0001pt\'>In der Festkörperphysik spielt die Renormierungsgruppe eine vergleichbar wichtige Rolle. Hier stellt man zunächst die Gleichungen der Theorie für das Molekülniveau auf und berücksichtigt dann die Effekte der Skalierung hin zu grösseren Raum- und Zeitskalen. In diesem Fall kann eine Theorie selbst-ähnlich (self-similar) werden, aber da die relevante Zahl der Dimensionen ist, wächst die effektive Kopplungsstärke beim Übergang zu grösseren Skalen stark an. Dieser Schritt wurde von K. Wilson und M.E. Fischer gegangen, die verschiedene Prozeduren entwickelten, um die Freiheitsgrade kleiner Abstände auszuintegrieren, um so eine Theorie auf sich selbst bei höheren Skalen abzubilden. Auf diese Weise können die kritischen Koeffizienten eines statistischen Systems bestimmt werden. Da die Gleichungen aber nur integriert werden können, wenn man von kleinen zu grossen Skalen übergeht, aber nicht umgekehrt, handelt es sich bei dieser Renormierungsgruppe lediglich um eine Halbgruppe.
bottom:.0001pt\'>
bottom:.0001pt\'>8 Neue Entwicklungen
bottom:.0001pt\'>Zahlreiche Aspekte der Renormierung werden auch heutzutage weiterhin untersucht. Eine wichtige Eigenschaft wurde für supersymmetrische Eichtheorien gefunden. Diese Theorien tendieren aufgrund ihrer enorm vergrösserten Symmetrie dazu, grundsätzlich weniger Divergenzen zu besitzen. In der Super-Yang-Mills-Theorie, einer Theorie mit vier Spinoren und sechs Skalaren in der adjungierten Darstellung (für die gilt), konvergieren alle Schleifenintegrale. Tatsächlich liest man an Gl. (13) für diese Theorie ab. Sie ist nicht nur skalierungsinvariant, sondern auch invariant unter allen konformen Raumzeit-Transformationen.
bottom:.0001pt\'>Die Renormierung der Quantengravitation wurde gründlich untersucht, aber da Newtons Konstante , die als Störungsparameter benutzt wird, die Dimension -2 hat, ist diese Theorie nicht renormierbar. Für die aufeinanderfolgenden Ordnungen in der störungstheoretischen Entwicklung müssen der Lagrange-Dichte mehr und mehr neue Counterterme zur Renormierung hinzugefügt werden. In manchen Fällen wird die Anzahl dieser unerwünschten Terme durch die Symmetrie eingeschränkt. Werden keine Materiefelder eingeführt, so bleibt die reine Gravitation renormierbar auf Einschleifenniveau, einfach aus dem Grund, weil keine invariante Kopplung der entsprechenden Dimension existiert. Supergravitations-Theorien werden noch weiter durch die Supersymmetrie eingeschränkt, aber bei ihnen treten unvermeidliche Divergenzen bei höheren Störungsordnungen auf. Moderne Theorien benutzen zumeist eine grössere Raumzeit-Dimension als Ausgangspunkt, wobei die zusätzlichen Dimensionen kompaktifiziert sind (Kompaktifizierung), aber auch das zerstört die Renormierbarkeit. Die Superstring-Theorie (String-Theorie) ist ebenfalls in einem 10-dimensionalen Raum definiert, aber deren Symmetrien sind so gewaltig, dass alle Schleifenintegrationen konvergieren und keine Renormierung nötig ist.
bottom:.0001pt\'>Sowohl die Theorien zur Beschreibung von Elementarteilchen als auch die zur Beschreibung der kondensierten Materie besitzen heute eine Schichtenstruktur: für verschiedene typische Abstände und Zeitbereiche werden verschiedene Modelle zu deren Beschreibung herangezogen, und bei einer kontinuierlichen Änderung der Skala variieren die relevanten Kopplungsparameter entsprechend. In diesem Fall spricht man von einer »laufenden» Kopplungsstärke (running coupling). Wird der Kopplungsparameter für eine bestimmte Skala sehr gross, wird die störungstheoretische Behandlung ungeeignet und muss durch eine effektivere, alternative Beschreibung mit kleineren Störungskopplungen ersetzt werden. Die Quantenchromodynamik ist für alle Energiebereiche von 1 GeV bis hin zu einigen tausend TeV geeignet, unterhalb von 1 GeV müssen allerdings Hadronen, wie z.B. Pion, Proton und Neutron, betrachtet werden. Bei kleinen Energien sind deren effektiven Kopplungen sehr schwach, und es bieten sich zur effektiven Beschreibung einfache Hadronen-Modelle an. Bei noch kleineren Energien, d.h. grösseren Abständen, können nicht-relativistische Modelle herangezogen werden, die z.B. Atomkerne beschreiben.
bottom:.0001pt\'>Dieser Artikel konnte hoffentlich einige der grundsätzlichen Geheimnisse lüften, die mit der Renormierung verbunden sind.
bottom:.0001pt\'>
bottom:.0001pt\'>Literatur:
bottom:.0001pt\'>Geschichte der Renormierung:
bottom:.0001pt\'>A. Pais, Inward bound: of matter and forces in the physical world, Oxford University Press 1986.
bottom:.0001pt\'>R.P. Crease und C.C. Mann, The Second Creation: makers of the revolution in twentieth-century physics, New York, Macmillan, 1986.
bottom:.0001pt\'>G. \'t Hooft, In search of the ultimate building blocks, Cambridge University Press 1997.
bottom:.0001pt\'>Renormierung in Eichtheorien:
bottom:.0001pt\'>G. \'t Hooft und M. Veltman, DIAGRAMMAR, CERN Report 73/9 (1973), Neudruck in: D. Speiser et al (Hrsg.), Particle Interactions at Very High Energies, Nato Adv. Study Inst. Series, Sect. B, Vol. 4b (1973), S. 177; und: G. \'t Hooft, Under the Spell of the Gauge Principle, Adv. Series in Math. Phys. Vol 19, World Scientific, Singapore, 1994.
bottom:.0001pt\'>Über Quantenfeldtheorie und Renormierung:
bottom:.0001pt\'>L.H. Ryder, Quantum Field Theory, Cambridge University Press, 1985, 1996.
Das freie Technik-Lexikon. Fundierte Informationen zu allen Fachgebieten der Ingenieurwissenschaften, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
TechniklexikonModernes Studium der Physik sollte allen zugängig gemacht werden.