Begriff aus der Thermodynamik, den Rudolf Clausius (18221888) zur Berechnung thermod. Prozesse eingeführt hat und der zuweilen sehr verschieden gedeutet wird. Die E. (Formelzeichen s) ist 0 am absoluten Nullpunkt der Temperatur (H> Kelvin). Bei nicht umkehrbaren Prozessen in einem abgeschlossenen System nimmt die E. stets zu, bei reversiblen Prozessen bleibt sie konstant. In einem offenen System, das durch Stoffaustausch mit seiner Umgebung verbunden ist, kann die E. zunehmen, gleichbleiben oder abnehmen. Allg. gilt die E. auch als ein Maß für die Unordnung in einem System. Natürlicherweise, so behaupten einige, strebe alles zu größerer Unordnung, sprich zur Vermehrung von Entropie.
Thermodynamik und statistische
Physik, S, thermodynamische Zustandsfunktion, eine
der zentralen Grössen der Thermodynamik und der Statistischen Physik mit der
SI-Einheit J / K. R. Clausius gelangte 1850 im Rahmen der phänomenologischen
Thermodynamik über die Betrachtung reversibler Kreisprozesse zum
Entropiebegriff. In einem solchen Prozess ist die reduzierte Wärmemenge stets gleich Null,
woraus sich die Existenz einer Zustandsgrösse S mit
dem vollständigen Differential
ableiten lässt. Dieser
Zustandsgrösse gab Clausius den Namen Entropie, zu deutsch etwa
»Verwandlungsinhalt«. Boltzmann lieferte 1866 die Definition der Entropie auf
statistischer Basis. Im Rahmen der Statistischen Physik wird die Entropie als
definiert, wobei kB
die Boltzmann-Konstante ist und W für das statistische Gewicht des
Zustandes steht, also für die Anzahl der mikroskopischen Zustände im
Phasenraum, die mit dem betrachteten makroskopischen Zustand vereinbar sind. W
wird gelegentlich auch als thermodynamische Wahrscheinlichkeit des Zustandes
bezeichnet, obwohl es sich um keine Wahrscheinlichkeit im engen Sinne des
Wortes handelt, da keine Normierung vorgenommen wird. Boltzmanns Nachweis
dafür, dass diese beiden Definitionen äquivalent sind (Boltzmannsches Prinzip),
kann als Durchbruch für das Verständnis der Thermodynamik als die statistische
Mechanik grosser Teilchenzahlen betrachtet werden.
In statistischem Sinne ist auch die umgangssprachliche Gleichsetzung des Entropiebegriffs mit dem der »Unordnung« aufzufassen: Je grösser die Anzahl der erlaubten, d.h. mit dem Makrozustand vereinbaren Mikrozustände, die nach dem Grundpostulat der statistischen Physik mit gleicher Wahrscheinlichkeit eingenommen werden, desto grösser die Entropie; ein System mit nur einem eindeutig fixierten Zustand weist die Entropie null auf.
Die statistische Definition der Entropie zeigt, dass stets S ³ 0 gilt. Es sei angemerkt, dass der absolute Wert der Entropie
nur im Rahmen der Quantenstatistik eindeutig festgelegt ist; dies rührt daher,
dass das statistische Gewicht W, die Anzahl der Zustände innerhalb eines
bestimmten Energieintervalls, von der Unterteilung des Phasenraumes in Zellen
abhängt, deren Grösse in der klassischen Statistik willkürlich erfolgt, so dass
die Entropie nur bis auf eine beliebige additive Konstante fixiert ist. Im
Rahmen der Quantenstatistik jedoch ergibt sich das Volumen einer Phasenraumzelle
ganz natürlich zu , worin
das Plancksche
Wirkungsquantum, f die Anzahl der Freiheitsgrade
bedeuten (statistisches Gewicht, Phasenraum), so dass die Entropie absolut
festgelegt ist.
Der Verlauf der Entropie in Abhängigkeit von der Energie zeigt das folgende Verhalten: Bei der quantenmechanischen Grundzustandsenergie E0, die im allgemeinen einen eindeutigen, oder, im Entartungsfalle, einige wenige Zustände charakterisiert, verschwindet die Entropie nährerungsweise: S » 0. Ist die Energie etwas grösser, so gilt S(E) » kBf × (E - E0), wobei die Anzahl der Freiheitsgrade f von der Grössenordnung 1024 ist. Für grosse Energien wird die Entropie von der Grössenordnung kBf, steigt also nur noch langsam mit der Energie.
Die Entropie S ist im allgemeinen keine Erhaltungsgrösse mit der Zeit. Nur wenn das System nicht nur thermisch, sondern auch »arbeitsmässig« isoliert ist, also ein abgeschlossenes System mit konstanter innerer Energie darstellt, hat die Entropie im Gleichgewicht einen bestimmten konstanten Wert. Die Änderung der Entropie eines abgeschlossenen Systems ist Inhalt des zweiten Hauptsatzes der Thermodynamik, des sogenannten Entropiesatzes, dem zufolge bei allen thermodynamischen Prozessen die Entropie monoton zunimmt oder aber im Grenzfall des thermodynamischen Gleichgewichtes unverändert bleibt, sich niemals jedoch verringert. Gemäss dem dritten Hauptsatz der Thermodynamik, dem Nernstschen Theorem, verschwindet die Entropie am absoluten Temperaturnullpunkt.
Die Messung der Entropie kann erfolgen, indem man den zweiten
Hauptsatz auf einen infinitesimalen quasistatischen Prozess anwendet, mit dem
ein System von einem Zustand 1 in einen Zustand 2 überführt wird; für die
Entropiedifferenz S12 zwischen den beiden Zuständen gilt dann
. Die Auswertung des Integrals der rechten Seite liefert,
unabhängig vom gewählten quasistatischen Prozess, einen eindeutigen Wert für die
Entropiedifferenz, da der Integrand, im Gegensatz zum Differential der Wärme
allein, ein vollständiges Differential darstellt. Wählt man nun beispielsweise
einen isothermen Prozess (T = const.),
so ist die Entropie einfach als der Quotient aus Übergangswärme und Temperatur
messbar. [JS2]
Das freie Technik-Lexikon. Fundierte Informationen zu allen Fachgebieten der Ingenieurwissenschaften, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
TechniklexikonModernes Studium der Physik sollte allen zugängig gemacht werden.