Computer sind heute in der Physik so allgegenwärtig, dass die Physik ihrerseits durch ihr Bedürfnis nach mehr Rechenleistung und komplexen und weltweit kompatiblen Programmiersprachen viele Entwicklungen in der Computertechnologie angestossen hat, zusammen mit verwandten Gebieten wie Astrophysik, physikalischer Chemie, Meteorologie, physikalischer Ozeanographie oder Geophysik. In der Hardwareentwicklung haben z.B. die Simulation von Kernwaffenexplosionen, die Berechnung von langfristigen Wettervorhersagen oder Prognosen zur Klimaentwicklung die Entwicklung von Grossrechnern, Supercomputern und vor allem Parallelrechnern vorangetrieben. Bei der Software hat die Notwendigkeit, für physikalische Experimente und Berechnungen sehr umfangreiche Programme (mit 10000 bis 100000 Befehlszeilen) zu erstellen und zu pflegen, Informatiker zur Konzeption sehr effizienter Programmiersprachen (z.B. Fortran und C) gebracht. Ausserdem wurden hierfür weltweite Standards etabliert, die den Austausch von Programmen zwischen unterschiedlichen Forschungseinrichtungen mit den verschiedensten Ausstattungen ermöglichten.
[34]Abb. 1 zeigt schematisch, wie und wo
Computer in der Physik heute eingesetzt werden; dieser Essay folgt dieser
Gliederung. Dabei sind die theoretische und die experimentelle Physik separat
aufgeführt, die beide aber natürlich ständig aufeinander einwirken, wie in der
Abbildung angedeutet (durchgezogene Linien bedeuten intensivere Verknüpfungen
als gestrichelte). Im folgenden werden wir zunächst allgemeine Aspekte in
theoretischer und experimenteller Physik und danach die wichtigsten Anwendungen
im einzelnen diskutieren.
Theoretische Physik
Analytische und numerische Modellbildung physikalischer Systeme sind die wichtigsten Aspekte der Computeranwendung in der theoretischen Physik. Analytische Berechnungen - das Herleiten von Formeln und die exakte Lösung von Differentialgleichungen - wurden früher fast ausschliesslich mit Papier und Bleistift durchgeführt. Seit der Entwicklung der symbolischen Programmierung jedoch lassen sich algebraische Berechnungen leicht und effizient am Computer durchführen: Funktionen können differenziert, integriert und vereinfacht werden, konvergente Reihen können summiert sowie Grenzwerte von Folgen oder Funktionen berechnet werden.
Viele Probleme der theoretischen Physik entziehen sich einer analytischen Lösung, so dass die sie beschreibenden Gleichungen numerisch gelöst werden müssen. Beispiele hierfür sind das Lösen der Schrödinger- oder der Dirac-Gleichung für ein Vielelektronensystem, aero- und hydrodynamische Berechnungen oder die Bewegungen von Sternsystemen mit mehr als zwei Komponenten (Dreikörperproblem). Hierfür werden oft umfangreiche Spezialprogramme mit mehreren zehn- bis hunderttausend Befehlszeilen entwickelt. Dabei werden meistens Funktionen aus allgemein zugänglichen Programmbibliotheken mit neuen, speziell erstellten Funktionen kombiniert. Die Entwicklung solcher Programme dauert zuweilen mehrere Jahre, sie müssen daher an neu entwickelte Hardware- und Betriebssysteme angepasst werden können.
Voraussagen und deren
Visualisierung, zum Beispiel bei Streuprozessen in der Hochenergiephysik oder
von Elektronenzuständen komplexer Moleküle, sind ein weiterer wichtiger Aspekt
der theoretischen Physik. Dies ermöglicht zum einen den Vergleich von Theorie
und Experiment, zum anderen erleichtert es oft Planung, Durchführung und
Fehleranalyse bei grossen Experimenten, vor allem an Teilchenbeschleunigern
(s.u.). Solche Vergleiche von Vorhersage und Messergebnis werden oft zur
Bestimmung freier Parameter in einer Theorie durchgeführt, wobei oft Techniken
und Computerprogramme aus der Statistik benötigt werden. Dies liegt daran, dass
experimentelle Daten immer fehlerbehaftet sind und Simulationen, die z.B. auf
der Monte-Carlo-Methode (der sehr oft wiederholten Berechnung von Prozessen
oder Experimenten mit statistisch verteilten Ausgangsdaten) basieren,
statistische Mittelungsfehler besitzen. Es gibt daher eine enge Verbindung
zwischen Physik und Statistik beim Vergleich von Theorie und Experiment. Auch
Kriterien und Methoden zur optimalen Parameterschätzung, wie z.B. die Methode
der kleinsten Quadrate (least squares fit), Simulated Annealing u.ä., spielen
hierbei eine Rolle, ebenso genetische Algorithmen und neuronale Netzwerke.
Letztere werden auch oft in der digitalen Bildverarbeitung eingesetzt, die sich
mittlerweile zu einem eigenständigen Forschungsgebiet mit vielen Anwendungen in
der Physik und der Medizin (z.B. bei der Computertomographie) entwickelt hat.
Experimentalphysik
Bei der Konzeption
gross angelegter Experimente ist es inzwischen üblich, mit Hilfe von
Berechnungen die Ergebnisse so zu simulieren, wie sie von den Detektoren
voraussichtlich erfasst werden. Solche Ergebnissimulationen spielen, wie in [35]Abb. 1 angedeutet, vor allem in der
Hochenergie- und Kernphysik eine grosse Rolle, da hier die Experimente besonders
kompliziert, zeitaufwendig und teuer sind. Auch Entwurf und Betrieb von
Fernerkundungssystemen, z.B. Erdbeobachtungssatelliten, Weltraumteleskopen oder
interplanetarischen Sonden, können von Computersimulationen profitieren.
Experimentsteuerung und Datenaufnahme geschehen in der physikalischen Forschung heutzutage praktisch immer mit Hilfe von Computern. Dadurch können die Versuchsbedingungen und Systemparameter direkt gespeichert und exakt reproduziert werden, zudem können die Messdaten digital aufgenommen, abgespeichert und über Netzwerke an andere Wissenschaftler, gegebenenfalls in Echtzeit, übertragen werden. Dies alles erlaubt die zuverlässige Überwachung und Beeinflussung des Experiments. Die Fortschritte in Hardware, Programmiersprachen und Computergraphik, wie sie weiter unten im einzelnen besprochen werden, haben seit den 80er Jahren Computer in der Experimentalphysik praktisch allgegenwärtig werden lassen.
Natürlich sind wir bei
der Analyse der Daten keine blossen Zuschauer. Unsere Intelligenz übertrifft die
Fähigkeiten der Maschinen immer noch bei weitem, ausser bei sehr einfachen
Systemen, die - wie das Schachspiel - strengen Regeln unterliegen. Im Vergleich
zu Computern haben wir Menschen einen sehr grossen Erfahrungsschatz und eine
sehr grosse Assoziationsfähigkeit, während Computer "nur" weit höhere
numerische Fähigkeiten besitzen. In der Physik ist die Synergie zwischen Mensch
und Computer am grössten, wenn der Computer visuelle Darstellungen von
quantitativen Informationen liefert und der Mensch seine Fähigkeit einbringt,
die dem Dargestellten zugrundeliegenden Strukturen zu erkennen.
Computer-Architekturen, die in der Physik angewandt werden
Die Anforderungen in
der physikalischen Forschung und die Konzeption von Computern beeinflussen sich
wechselseitig stark. Die meisten hier eingesetzten Computer entsprechen dem
Schema, das in den 40er Jahren von dem Mathematiker J. v. Neumann vorgeschlagen
wurde ([36]Abb. 2). Diese Struktur, auch
Computer-Architektur genannt, war seinerzeit eine umwälzende Neuerung, denn sie
setzt zwischen die Zentraleinheit (CPU, nach der englischen Bezeichnung Central
Processing Unit, Zentraleinheit) und den Speicher eine Adressierungseinheit
(Adressbus, Bussystem, Bus). Dadurch brauchen keine direkten Verbindungen
zwischen der Zentraleinheit und den Millionen von Speicherzellen zu bestehen.
Die Zentraleinheit muss also nicht "wissen", wie viele Speicherzellen
vorhanden sind und wie diese technisch ausgeführt sind, ob als RAM (Random
Access Memory), auf einer Festplatte oder einem anderen Medium. Im
Von-Neumann-Schema sind Eingabe- und Ausgabevorrichtungen (I/O, nach der
englischen Bezeichnung Input/Output) direkt mit der CPU verbunden.
Diese Architektur hat den grossen Nachteil, dass die I/O-Vorrichtungen oft elektromechanisch ausgeführt und daher um einige Grössenordnungen langsamer sind als die CPU. In diesem Fall wirken die I/O-Vorrichtungen als Engpass im Datendurchsatz. In der Experimentalphysik tritt dieser Engpass oft beim Input auf, wenn Datenströme aufgenommen und in Echtzeit verarbeitet werden müssen, um den Ablauf der Messung überwachen zu können (Datenerfassung). Der Input-Engpass kann abgeschwächt werden, wenn man beim Speichern DMA-Einrichtungen verwendet (DMA, englisch Direct Memory Access, direkter Speicherzugriff). Vor allem in der theoretischen Physik tritt manchmal ein Engpass an Output-Geräten auf, insbesondere wenn viele komplexe Graphiken zu erstellen sind. Auch hier hat sich der Einsatz effizienter DMA-Vorrichtungen bewährt. Statt dessen können Ausgangswerte auch vom RAM auf die Festplatte geschrieben werden, von der sie später gelesen und zur engültigen Ausgabe weitergeleitet werden, etwa zu einem Drucker. Diese Zwischenspeicherung auf Medien mit mittlerer Zugriffsgeschwindigkeit wird "Spooling" genannt, dieser Ausdruck ist abgeleitet von der englischen Bezeichnung Simultaneous Peripheral Operations On Line (etwa: gleichzeitiger, mitlaufender Peripherie-Betrieb, gemeint ist: mit Zwischenspeicherung).
Bei der Verwendung von
Computern für numerische Berechnungen in der Physik (englisch: computational
physics) kommt es auch darauf an, ob die CPU Daten seriell oder parallel
verarbeitet. Im Prinzip gibt es dabei drei Schemata: Single Instruction
Single Data (SISD), wie es bei den meisten PCs realisiert ist, Single
Instruction Multiple Data (SIMD) für die simple Wiederholung einer
Berechnung mit vielen Datenelementen und Multiple Instruction Multiple Data
(MIMD), eingesetzt für komplizierte Berechnungen, die in gleicher Weise mit
vielen Daten ausgeführt werden. Tabelle 1
Computer in der Physik: CPU-Schemata, die für die Multiplikation zweier Grössen a und b am effizientesten sind.
A |
b |
ab |
CPU-Schema |
Skalar |
Skalar |
Skalar |
SISD |
Skalar |
Matrix |
Matrix |
SIMD |
Matrix |
Matrix |
Matrix |
MIMD |
zeigt am einfachen Beispiel der Multiplikation zweier Variablen a und b, welches CPU-Schema am effizientesten ist, abhängig vom Typ der Variablen, die entweder Skalare (einzelne Zahlen) oder Zahlenfelder (Vektoren bzw. Matrizen) sein können. Zu den Computern, die Daten nicht nur seriell verarbeiten können, zählen die Vektorrechner und die Parallelrechner.
Je schneller die CPU des Computers arbeitet, desto eher wird der Datenzugriff auf die Festplatte zum Engpass. Muss auf dieselbe Datei mehrmals hintereinander zugegriffen werden, ist es günstiger, die Daten in das RAM (auf eine sogenannte RAM-Disk) zu kopieren und dort auf sie zuzugreifen, was um einige Grössenordnungen schneller ist als der Festplattenzugriff. Moderne Betriebssysteme erlauben dies, ohne dass das Benutzerprogramm entscheidend modifiziert werden muss. Da die Kosten für einen schnellen Speicher einen immer kleineren Anteil am Gesamtpreis eines Rechners ausmachen, findet die Verwendung von RAM-Disks eine immer weitere Verbreitung. Die entgegengesetzte Strategie, also der Einsatz von Plattenspeicher als RAM-Ersatz - virtueller Speicher genannt -, wurde in den 80er und den frühen 90er Jahren häufig verfolgt. Dies reduziert natürlich die Gesamtgeschwindigkeit des Computers, und gerade dies sucht der Physiker unter allen Umständen zu vermeiden.
Es gibt
Spezialcomputer für numerisch sehr intensive physikalische Berechnungen, z.B.
in der Quanten-Gittereichfeld-Theorie für die Berechnung der Eigenschaften von
Hadronen oder in der Physik der kondensierten Materie zur Berechnung des
Ising-Modells der magnetischen Eigenschaften. Hierbei besteht der grösste Teil
der Berechnungen aus recht einfachen Operationen, die aber für Milliarden von
Datenelementen wiederholt werden. In diesem Fall ist es günstiger, die
entsprechenden Verknüpfungen fest zu verdrahten; man spricht dann auch von
"Hardwire" (wörtlich: "fester Draht") anstatt von
"Hardware". Oft entwerfen und bauen Physiker ihre Spezialcomputer mit
Hilfe von Informatikern, Elektronikingenieuren und Chipherstellern selbst. Die
daraus hervorgehenden Computer sind auf den jeweiligen Spezialfall zugeschnitten
und für andere Zwecke kaum geeignet. Aber viele Erfahrungen und Ideen, die
dabei gewonnen werden, finden irgendwann ihren Weg auch in kommerzielle
Computer.
In der Physik angewandte Computersprachen
Physiker setzen für Datenbanken, Tabellenkalkulation, Textverarbeitung und Graphik natürlich kommerzielle Anwendungsprogramme ein, die in den jeweils üblichen Programmiersprachen erstellt wurden. Die meisten Programme im Bereich der computational physics werden dagegen in nur wenigen Sprachen entworfen und geschrieben.
Numerische Berechnungen in der Physik werden meist in Fortran oder in C programmiert, während BASIC und Pascal in anderen Gebieten noch gebräuchlich sind (Programmiersprachen). Bis in die 80er Jahre hinein war Fortran nahezu die einzige benutzte Programmiersprache, während neuere Programme oft in C geschrieben wurden. Fortran hat gegenüber anderen Programmiersprachen einige Vorteile: Es ist leicht zu schreiben, und beim Compilieren kann ein effizienter und schneller Maschinencode erzeugt werden; zudem wird Fortran ungefähr alle zehn Jahre erneut standardisiert. Bei jeder Standardisierung werden nützliche Techniken aus anderen Sprachen übernommen, z.B. wurden in Fortran 90, dem im Jahre 1990 weltweit etablierten Standard, rekursive Prozeduren und Pointer implementiert. Zu den Vorteilen von C für Numerik und Datenanalyse in der Physik gehören die verschiedenen Variablentypen, die Möglichkeit, Zeichenfolgen zu bearbeiten und die Standardisierung. Darüberhinaus macht die Möglichkeit, Speicheradressen direkt anzusprechen, C geeignet zur Überwachung und Steuerung von Experimenten. Einige Implementierungen von Fortran und C ermöglichen die Kombination von Funktionen, die in beiden Programmiersprachen geschrieben wurden, und beide Sprachen verfügen über umfangreiche Programmbibliotheken.
Symbolische und algebraische Berechnungen in der Physik sind meist äusserst komplex und langwierig. Daher sind hierauf spezialisierte Programmiersprachen von besonderem Vorteil. Seit Ende der 80er Jahre gibt es im wesentlichen zwei Systeme, mit denen Mathematik am Computer betrieben wird: Mathematica und Maple. Ersteres wird eher von Physikern bevorzugt, letzteres eher von Mathematikern. Beide Systeme bieten ausser der Möglichkeit zur Symbolmanipulation leistungsfähige numerische, graphische und Formatierungs-Funktionen, mit denen die Resultate dargestellt werden können. Diese Programme arbeiten tausendmal langsamer als kompilierte Fortran- oder C-Programme, was sich nachteilig bemerkbar macht, wenn viele Berechnungen durchzuführen sind. Ein grosser Vorteil von Mathematica, Maple und ähnlichen Systemen liegt darin, dass komplexe Berechnungsaufgaben mit ihnen leicht und schnell programmiert werden können. Derartige Systeme werden daher oft beim Entwickeln von numerischen Algorithmen eingesetzt.
Das Steuern von
Grossexperimenten und die Datenaufnahme in der Physik erfordern ebenfalls
spezielle Programmiersprachen und Systeme, zum Beispiel IDL und Labview. Weil
deren Brauchbarkeit stark von den jeweiligen Schnittstellen zur Hardware
abhängt und diese sich sehr schnell weiterentwickeln, müssen solche Systeme
häufig aktualisiert werden.
Computergraphik in der Physik
Visualisierungen spielen seit jeher in der Physik eine grosse Rolle bei der Illustration abstrakter Begriffe und der Darstellung umfangreicher Datensätze. Im letzten Jahrzehnt führte die Entwicklung von preiswerten und schnellen Tischcomputern (PCs), benutzerfreundlichen Graphikprogrammen, Farbmonitoren und hochauflösenden Ausgabegeräten wie Laser- und die Tintenstrahldrucker zu einem Aufblühen der Computergrahik in der Physik.
In der theoretischen
Physik wird Computergraphik zur Visualisierung von komplexen Formeln und
Lösungen von Differentialgleichungen benutzt. Beispielsweise werden in der
Quantenmechanik die Wellenfunktionen, welche die Schrödinger-Gleichung für die
Streuung eines Teilchens an einem abstossenden Coulomb-Potential erfüllen, mit
Hilfe sehr verwickelter numerischer Methoden gefunden und sind anhand von
Zahlentabellen kaum zu interpretieren. Die Wellenfunktion hängt dazu von drei
Variablen ab: dem Sommerfeldschen Coulomb-Parameter h, dem
Wellenzahl-mal-Abstand-Parameter r und der Partialwellen-Quantenzahl L.
Mit einer Computergraphik können hier Hunderte von Werten der
Coulomb-Wellenfunktionen übersichtlich dargestellt werden ([37]Abb. 3). Bei dieser dreidimensionalen
Graphik einer D-Wellen-Streuung (d.h. L
= 2) ist die aus der Wellenfunktion berechnete
Aufenthaltswahrscheinlichkeit (Wahrscheinlichkeitsamplitude) vertikal
aufgetragen und die Parameter r und h als "rho" und "eta"
auf der x- bzw. der y-Achse; das Bild fasst 400 numerische Werte
zusammen.
In der
Experimentalphysik und verwandten Disziplinen besteht eine der
leistungsfähigsten Anwendungen der Computergraphik darin, sehr umfangreiche
Datensätze zusammenzufassen. Beispielsweise können für die
Geschwindigkeitsverteilung der Wassermoleküle in einer Gewitterwolke Millionen
von Werten vorliegen, die entweder mit Doppler-Radar oder durch
Computersimulationen der Gewitterwolken-Dynamik gewonnen wurden. Zu einem
gegebenen Zeitpunkt hängt in einer gegebenen Wolke die Geschwindigkeit von der
Position in der Wolke ab, die beide durch dreikomponentige Vektoren beschrieben
werden. Man kann sozusagen einen Schnappschuss in einer bestimmten Höhe z0 (die z-Koordinate
als vertikale Achse) aufnehmen, der eine Geschwindigkeitskomponente erfasst, z.
B. diejenige in vertikaler Richtung, z(z0) ([38]Abb. 4). Die Werte können in
verschiedene Farben umgesetzt werden, wobei beispielsweise Rot einer hohen
Geschwindigkeit in einer Richtung und Blau einer hohen Geschwindigkeit in der
Gegenrichtung entspricht. Muster in der Geschwindigkeitsverteilung können auf
diese Weise leicht erkannt werden, z.B. in der Abbildung die starke vertikale
Windscherung im linken unteren Quadranten. Die Kodierung von Zahlenwerten durch
Farbskalen vergrössert die Möglichkeiten der Visualisierung erheblich, indem
eine zusätzliche Dimension dargestellt werden kann.
Ein anderes Beispiel für die Anwendung von Computern zum Zusammenfassen grosser Datenmengen ist die Rasterkraftmikroskopie (AFM, von englisch Atomic Force Microscopy). Hierbei werden die elektrostatischen Kräfte zwischen einer nur einige Atomdurchmesser dicken Spitze und einer Oberfläche gemessen.
[39]Abb. 5 zeigt eine Röhre aus Fulleren (ein
fussball- oder röhrenförmiges Makromolekül aus Kohlenstoffatomen) auf einem
Glimmersubstrat. Der Vergrösserungsfaktor beträgt etwa eine Million. Zur
Datenanalyse und zur Anzeige des Bildes wurde ein handelsüblicher PC verwendet,
während die Abbildung auf einer speziellen Hochgeschwindigkeits-Workstation von
Silicon Graphics in Echtzeit aufgenommen und bearbeitet wurde.
In der Astrophysik
ergibt die von den Teleskopen erfasste Strahlung entweder unmittelbar sichtbare
Bilder, wie bei konventionellen optischen Teleskopen, oder die Information wird
umgesetzt zur Ermittlung anderer physikalisch relevanter Grössen. Um die gesamte
aus einem bestimmten Himmelsareal kommende Strahlung zu erfassen, werden oft
viele verschiedene Instrumente zusammen benutzt. Die Intensitätsverteilungen in
den einzelnen Spektralbereichen können dann mit dem Computer zu einem
gemeinsamen digitalen Bild verknüpft werden. [40]Abb. 6 zeigt ein Beispiel: Die
Intensität der ultravioletten Lyman-Alphastrahlung des Wasserstoffs (hier cyan
dargestellt) kann überlagert sein durch die 20-cm-Radiowellenstrahlung (hier
rot dargestellt) aus derselben Galaxie. Dies erlaubt den direkten Vergleich von
zwei ganz verschiedenen Bereichen des elektromagnetischen Spektrums, die beide
für das blosse Auge unsichtbar sind.
Ein weiteres Konzept,
das zunehmende Verbreitung findet, ist die "dynamische
Computergraphik", die es erlaubt, die zeitliche Dimension unmittelbar
miteinzubeziehen. Solche computergenerierten "Filme" von
physikalischen Phänomenen, theoretischen oder experimentellen, verknüpfen die numerischen
und visuellen Aspekte zeitabhängiger Effekte. Die Möglichkeit, sowohl eine
visuelle Darstellung für das unmittelbare Verständnis als auch eine numerische
Darstellung hoher Genauigkeit für die weitere Auswertung zu besitzen, ist in
der Physik ausserordentlich nützlich.
Computer und Kommunikation
Computer, Physik und Kommunikation sind schon lange miteinander verwoben. Viele der frühen Computernetze in den USA wurden entwickelt, damit Wissenschaftler in der Physik schnell und effizient Daten austauschen konnten. Auch das World Wide Web (WWW) wurde von einem Physiker konzipiert, nämlich im Jahre 1989 von Tim Berners-Lee am Institut für Hochenergiephysik des CERN in Genf. Viele Computer-Kommunikationssysteme wie das Internet werden mit maximaler Übertragungskapazität von Physikern zum Austausch von Daten, Bildern und Computerprogrammen genutzt. Man kann sagen, dass die Physiker solche Kommunikationsverfahren oft initiiert haben, die Kommerzialisierung und verbreitete Anwendung wurden jedoch normalerweise durch andere gefördert.
Computergestützte
Datenbanken mit Online-Zugang und elektronischen Dokumenten für Physiker,
Chemiker und andere Naturwissenschaftler sind schon seit vielen Jahren
verbreitet, z.B. existieren umfangreiche Datenbanken mit Informationen zur
Hochenergie- und Kernphysik wie die detaillierten Eigenschaften von Atomkernen
und Elementarteilchen. Einige physikalische Zeitschriften, darunter die vom
American Institute of Physics in den USA und vom Institute of Physics
Publishing in Europa herausgegebenen, werden inzwischen auch in elektronischer
Form verbreitet, die man online oder auf CD-ROM erhalten kann. Zu den
bibliographischen Diensten für die Physik und verwandte Gebiete gehören der
Current Physical Index, ferner DIALOG, ESA und die Physical Abstracts.
Zitatenverzeichnisse physikalischer Veröffentlichungen können ebenfalls in
Online-Datenbanken wie dem Science Citation Index (alle Naturwissenschaften)
und in SPIRES (vorwiegend Hochenergiephysik) gefunden werden.
Computer und die Ausbildung in Physik
Die Physik ist ein Fachgebiet, in dem man, verglichen mit den meisten anderen Disziplinen, relativ wenig auswendig lernen muss. Daher ist die einfachste Anwendung der Computer in der Ausbildung - vornehmlich Üben und Abfragen - hier nicht sehr gefragt. Weiterhin werden in der physikalischen Ausbildung ausgiebig Diagramme, Formeln und abstrakte Konzepte angewandt, was die Konzeption nützlicher Computerprogramme hierfür ausgesprochen schwierig macht.
Oft kommen Physikstudierende mit Computern erstmals dann in Berührung, wenn es im Praktikum um Aufnahme, Anzeige und Analyse von experimentellen Daten geht. Die Datenaufnahme bringt das Interface Computer-Messgerät mit ins Spiel, die Online-Anzeige der Messwerte lässt den Versuchsfortschritt erkennen, und in der Auswertung können ausgereifte und leicht zu bedienende Programme zum Anpassen von Gleichungen an die Messdaten und zur statistischen Fehleranalyse verwendet werden.
In fortgeschritteneren Kursen liegt der Schwerpunkt meistens eher auf der Frage, wie die Programme funktionieren (das sog. "heads up"-Training), und weniger auf der Anwendung von Computern und Software als reines Werkzeug. Hierbei wird meist auch eine wissenschaftliche Programmiersprache erlernt, etwa C oder Fortran, ausserdem ein System, das symbolische Verarbeitung ermöglicht, wie Mathematica, Maple, MathCad oder MatLab. Die Studierenden erwerben auch ein Verständnis der Leistungen und Grenzen des Computers.
Während der
Diplomarbeit und Promotion dienen die Computer vor allem als Hilfsmittel zur
theoretischen Modellbildung oder zur Konzeption und Steuerung von Experimenten,
ferner zur Aufnahme und Auswertung der Daten, wie es in [41]Abb. 1 angedeutet wurde. Die eher
theoretisch orientierten Studierenden befassen sich dabei seltener mit den Details
der Computerhardware, sondern vorwiegend mit der Anwendung und Entwicklung von
Software. Dagegen müssen Experimentalphysiker oft mit Hardwaredetails vertraut
werden, um den Computer an die Datenaufnahme- und Überwachungsgeräte ankoppeln
zu können. Im Zusammenhang damit lernen die meisten Studierenden und
Doktoranden der Physik auch eines oder mehrere Betriebssysteme gut kennen,
beispielsweise Windows, Unix oder das Macintosh-System.
Die Physik der Computer
Zwar werden Computer normalerweise von Informatikern und Elektronikingenieuren konzipiert und gebaut, aber die prinzipiellen Arbeitsweisen ihrer Komponenten beruhen fast ausschliesslich auf Entdeckungen von Physikern. Beispielsweise basieren Festplattenspeicher auf dem Ferromagnetismus, die CPU und RAM-Bausteine benutzen Transistoren, Compact Disks (CDs), Digital Video Disks (DVDs) und beschreibbare magneto-optische (MO) Speicher verwenden Laser und Polarisationseffekte. Monitore benutzen die aus der Elektrodynamik kommende Kathodenstrahlröhre bzw. die Flüssigkristall-Technik (LCD, englisch Liquid Crystal Display) aus der Physik der kondensierten Materie, und Laserdrucker beruhen auf der Xerographie, die wiederum auf der Photosensibilisierung und der Elektrostatik basiert.
Auch die neuesten
Fortschritte basieren auf Entdeckungen in der angewandten Physik: man denke nur
an die immer höhere Integration der Bauelemente in den Halbleiterchips (VLSI, Very
Large Scale Integration, und ULSI, Ultra Large Scale Integration),
ausserdem an Flachbildschirme oder an die schon erwähnten neuen transportablen
Hochkapazitäts-Speichermedien. Daher ist die Physik äusserst bedeutsam für die
Entwicklung auf dem Computersektor - nicht nur, weil sie immer höhere
Rechenleistung fordert, sondern vor allem weil sie die Grundlage dafür bietet,
dass die Computertechnik einen viel rasanteren Fortschritt erlebt als jede
andere Technologie.
Die Zukunft der Computer in der Physik
Die bisherigen Ausführungen zeigen, dass Computer die technischen Aspekte der Physik weiterhin dominieren werden. Obwohl Physiker gewöhnlich mit der Komplexität des Programmierens und der Vernetzung von Computern und Peripherie umgehen können, werden sie sich bei Konzeption und Bau eines Computers sowie bei der Basis-Software (Betriebssysteme und Compiler) weiterhin auf Informatiker und Elektronikingenieure verlassen. Als Computeranwender werden die Physiker auch künftig Wert auf hohe Rechengeschwindigkeit, grosse Speicherkapazität und intelligente Input- und Output-Systeme legen.
Im nächsten Jahrzehnt wird es sicherlich erneut wesentliche Fortschritte in der Computertechnik geben, die auf der Anwendung physikalischer Erkenntnisse beruhen. Sehr bald werden leichte, hochauflösende LCD-Monitore weit verbreitet sein, die weitere Fortschritte in der Physik der kondensierten Materie nutzen, und die Speicherdichte auf CD-ROMs, DVDs usw. wird weiter steigen. Auf längere Sicht werden vermutlich holographische dreidimensionale Speicher einsatzbereit werden, und wahrscheinlich werden auch Computer, die mit optischen Signalen aus Lasern anstatt mit elektronischen Signalen aus Transistoren arbeiten, entwickelt werden (optische Computer).
Physikalische
Prinzipien setzen der Geschwindigkeit eines Computers drei grundsätzliche
Grenzen: Zum einen kann sich kein Signal schneller als mit Lichtgeschwindigkeit
ausbreiten (30 cm/ns), daher sollten Schaltkreise so klein wie möglich
konzipiert werden. Die geringere Grösse bzw. die dichtere Packung der
Schaltelemente bewirkt aber eine höhere Leistungsdichte (meist in W/cm3 angegeben), die wiederum
zu einer stärkeren Wärmeentwicklung führt. Die Leistung steigt dabei sogar
stärker als linear mit der Arbeitsgeschwindigkeit des Rechners an. Daher ist
die Frage der Wärmeabfuhr eines der Hauptprobleme beim Konzipieren noch
schnellerer Computer. Die Physik kann auch hier helfen: so kann man den
Peltier-Effekt ausnutzen, um Bauteile zu kühlen, oder man kann spezielle
Materialien mit hoher thermischer Leitfähigkeit einsetzen, so dass die
entstehende Wärme schneller abgeführt wird. Schliesslich setzen Quanteneffekte
der Miniaturisierung eine fundamentale Grenze, wenn atomare Dimensionen
erreicht werden und die Heisenbergsche Unschärferelation eine Rolle zu spielen
beginnt (Quantencomputer).
Berufsaussichten für Physiker im Computerbereich
Normalerweise werden Physiker nicht zu Spezialisten für die physikalische Computer-Anwendung ausgebildet (englisch: "computational physicists"). Sie erwerben während ihres Studiums eher Kenntnisse in einer Vielzahl von Bereichen der Informatik, vor allem natürlich in der numerischen Modellbildung und der Datenanalyse, und wenden diese Fähigkeiten dann in vielen anderen Gebieten an. In den unteren Semestern ist Informatik als Nebenfach (oder zumindest einige anspruchsvollere Lehrveranstaltungen in diesem Fach) manchmal von Vorteil, so wie die meisten Physiker im Grundstudium normalerweise Mathematik als Nebenfach haben. Was von Firmen, die Physiker im Computerbereich beschäftigen, am meisten geschätzt wird, sind die intellektuelle Disziplin, die man zum Erreichen des Physik-Diploms braucht, die Fähigkeit zu konzeptionellem Denken und das Abstraktionsvermögen, die während des Studiums erworbenen mathematischen Fertigkeiten und die Vertrautheit mit den Prinzipien der Computerhardware und der Elektronik.
Viele der erwähnten
Fähigkeiten sind auch auf Gebieten anzuwenden, die fast gar nichts mit Physik
zu tun haben. Beispielsweise benötigt man in Wirtschaft und Statistik oft
Zeitreihenanalysen, die für den Physiker im Grunde nur Erweiterungen der
Fourier-Analyse und verwandter Techniken sind. Ein anderes Beispiel ist in der
medizinischen Forschung die Untersuchung der Clusterbildung von Bakterien, was
als Mustererkennungs-Aufgabe angesehen werden kann, die möglicherweise früher
ganz ähnlich in einem astrophysikalischen Projekt bei der Suche nach
Galaxienclustern in den Daten eines Weltraumteleskops aufgetreten ist. In der
Medizin wird im Gebiet der digitalen Bildverarbeitung die Mitarbeit von
Physikern wegen ihrer Erfahrung im Umgang mit Computern und in der Datenanalyse
sehr geschätzt - vor allem im diagnostischen Bereich, wo Computertomogramme aus
Röntgen-, Kernresonanz- (NMR, englisch: Nuclear Magnetic Resonance) und
Positron-Emissionsaufnahmen (PET, englisch: Positron Emission Tomography)
generiert werden.
Publikationen über Computer in der Physik
Es gibt eine Reihe von Magazinen bzw. Zeitschriften, die interessant sind für alle, die sich mit dem Einsatz von Computern in der Physik befassen. Die Zeitschrift Computer Physics Communications (North-Holland) beschreibt monatlich Algorithmen und Programme für die Physik und die physikalische Chemie. Ferner unterhält die Zeitschrift eine Programmbibliothek, aus der man komplette Programme mit Testbeispielen zu vernünftigen Preisen beziehen kann.
Computer in Physics
(American Institute of Physics) erscheint zweimonatlich und befasst sich mit
einer grossen Bandbreite von aktuellen Themen der Computeranwendung, die für
Physiker und Ingenieure interessant sind. Die Zeitschrift enthält aktuelle
Neuigkeiten, einen Internet-Führer, Rubriken für Ausbildung und Forschung,
Technik und Methoden und eine Sektion mit im "peer-review"-Verfahren
begutachteten wissenschaftlichen Artikeln. Die monatlich erscheinenden
Zeitschriften Journal of Computational Physics (Academic Press) und Journal of
Scientific Computing (Plenum Publishing) sind technisch anspruchsvoller als die
zuvor genannten; hier liegt das Schwergewicht auf Algorithmen in Physik und
angewandter Mathematik. Ebenfalls interessant für diejenigen, die Computer in
der Physik anwenden, sind auch einige Computer-Magazine, die Aspekte der
Computernutzung auf teilweise höherem Niveau beschreiben; hierzu zählen Byte,
The C/C + + Users Journal, Dr. Dobb\'s
Journal und The Mathematica Journal.
Computer in der Physik 1: Schema der Anwendung von Computern in der Physik.
Computer in der
Physik 2: Schematischer Aufbau des Computers mit der von John von Neumann
entworfenen Architektur.
Computer in der Physik 3: Dreidimensionale Darstellung der quantenmechanischen Aufenthaltswahrscheinlichkeit eines an einer Coulomb-Barriere gestreuten Teilchens.
Computer in der Physik 4: Farbcodierte Darstellung der vertikalen Geschwindigkeitsverteilung in einer Gewitterwolke als Funktion der horizontalen Koordinaten in einer festen Höhe über Grund. Blau bedeutet starke Aufwärts-, Rot eine starke Abwärtsbewegung. (Mit freundlicher Genehmigung von Dr. Louis J. Wicker und Dr. Robert B. Wilhelmson, NSAC, University of Illinois, Urbana-Champagne. Die Abbildung wurde mit dem Programm T3D vom Fortner Research LLC erzeugt.)
Computer in der Physik 5: Eine Fulleren-Röhre (ein riesiges, rund 10 000 Atome langes Kohlenstoffmolekül) auf einem Glimmersubstrat. (Mit freundlicher Genehmigung von Dr. Richard Superfine, University of North Carolina, Chapel Hill)
bottom:.0001pt;border:none; mso-border-left-alt:solid purple 1.5pt;mso-border-bottom-alt:solid purple 1.5pt; mso-border-right-alt:solid purple 1.5pt;padding:0cm;mso-padding-alt:0cm 13.0pt 13.0pt 13.0pt\'>Computer in der Physik 6: Zusammengesetztes Bild der Galaxie N4258. Die UV-Strahlung ist blau dargestellt, die 20-cm-Radiostrahlung rot. (Mit freundlicher Genehmigung von Gerald Cecil)
Das freie Technik-Lexikon. Fundierte Informationen zu allen Fachgebieten der Ingenieurwissenschaften, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
TechniklexikonModernes Studium der Physik sollte allen zugängig gemacht werden.