Mass für die bei der Aufklärung des Zustandes eines Systems gewonnene Information unter der Bedingung, dass die Menge aller möglichen Systemzustände und deren Wahrscheinlichkeiten bekannt sind. C.E. Shannon (1949) definierte die Informationsentropie H als,
d.h. als gewichtetes Mittel über alle möglichen N Systemzustände i mit deren Wahrscheinlichkeiten pi. Es ist üblich, die Basis b = 2 zu wählen und die Information in bit anzugeben. Die Informationsentropie H und die Entropie S im Sinne der statistischen Physik sind einander proportional,
(k: Boltzmann-Konstante). Ein wichtiger Spezialfall sind Systeme mit N gleichwahrscheinlichen Zuständen, für die gilt.
Das freie Technik-Lexikon. Fundierte Informationen zu allen Fachgebieten der Ingenieurwissenschaften, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
TechniklexikonModernes Studium der Physik sollte allen zugängig gemacht werden.