Mathematische Methoden und Computereinsatz
bottom:.0001pt\'>Im Jahre 1805 publizierte A. Legendre als erster einen Aufsatz über die Methode der kleinsten Quadrate (MdkQ) und wandte sie auf die Auswertung der im Jahre 1795 gewonnenen Daten der Vermessung des französischen Meridians an. Im Jahr 1809 erbringt F. Gauss, der behauptet, die MdkQ schon seit 1795 zu benutzen, in Theoria Motus Corporum Coelestium die Begründung der Methode auf Basis normalverteilter Fehler. Er zeigt ferner, wie sich die Fehler der bestimmten Parameter schätzen lassen und sich die Methode auf nichtlineare Probleme durch Linearisierung erweitern lässt. Tatsächlich scheint Gauss die MdkQ seit 1795 benutzt zu haben, ist aber durch Legendres Veröffentlichung vermutlich erst auf die weitreichende Bedeutung dieser Methode aufmerksam geworden.
bottom:.0001pt\'>Seit den Tagen von
Legendre und Gauss hat die Methode viele Verbesserungen und Erweiterungen
erfahren. Stabile numerische Verfahren wurden entwickelt, um grosse Datenmengen
auszuwerten, um Ausgleichsprobleme mit stochastischen Randbedingungen zu lösen,
um die unabhängige Messgrösse (meist Zeit) ebenfalls als fehlerbehaftet zu
behandeln (total least squares) oder um die Methode auf Modelle anzuwenden,
denen Differentialgleichungsmodelle zugrunde liegen. Die Lösung von
Ausgleichsproblemen in Verbindung mit Differentialgleichungsmodellen ist sehr
wesentlich für die physikalisch-fundierten Naturwissenschaften, aber auch z.B.
für die Biologie. Ein schwerwiegender Nachteil der klassischen MdkQ ist die
Beschränkung, dass explizite Modelle - meist Geraden oder Polynome - angepasst
werden. Da viele naturwissenschaftliche Fragestellungen, z.B. bei der
Untersuchung dynamischer Systeme in Physik, Astronomie und Astrophysik, aber
auch in der Ökologie, jedoch auf Differentialgleichungen führen, deren Lösungen
nicht in geschlossener Form dargestellt werden können, gewinnen numerische
Verfahren an Bedeutung, die die MdkQ mit Differentialgleichungsansätzen
verbinden und die Differentialgleichungen als diskretisierte Nebenbedingungen
simultan mit einbeziehen; dieser Ansatz lässt sich übrigens auf jegliche Art
implizit vorgegebener Modelle erweitern und führt in natürlicher Weise auf
Verfahren zur optimalen Steuerung.
character:line-break\'>
character:line-break\'>
bottom:.0001pt\'>1 Unbeschränkte Ausgleichsprobleme
bottom:.0001pt\'>Ein unbeschränktes
Ausgleichsproblem mit n freien Parametern im Sinne der Methode der kleinsten Quadrate
kann als ein unbeschränktes Minimierungsproblem mit einer Zielfunktion der Form
bottom:.0001pt\'>mit aufgefasst werden. Diese Form resultiert z.B.
aus einem nichtlinearen überbestimmten Gleichungssystem
bottom:.0001pt\'>
bottom:.0001pt\'>oder einem
Ausgleichsproblem mit N gegebenen Datenpunkten und Varianzen
, einer Modellfunktion
und n zu
bestimmenden Parametern
:
bottom:.0001pt\'>
bottom:.0001pt\'>Die Gewichte leiten sich aus den Varianzen
gemäss der Beziehung
bottom:.0001pt\'>
bottom:.0001pt\'>ab, mit einem passend gewählten Skalierungsfaktor, der die Gewichte möglichst in der Grössenordnung 1 hält. In der kürzeren Vektorschreibweise erhält man für den Residuenvektor
bottom:.0001pt\'>
bottom:.0001pt\'>mit . Der
Residuenvektor (2) beschreibt den auf die unabhängige Koordinatenachse (t mit Index n) projizierten Abstand. In manchen
Anwendungen wird stattdessen auch der orthogonale Abstand eines Messpunktes von
der Modellkurve als Mass der Güte verwendet (total least squares, TLS). Im Falle
von TLS hat der Residuenvektor
die Gestalt
bottom:.0001pt\'>
bottom:.0001pt\'>Zu beachten ist, dass
die vormals unabhängige Grösse jetzt ebenfalls mit Hilfe der MdkQ bestimmt
wird. TLS-Probleme sind immer nichtlinear.
bottom:.0001pt\'>Es ist wichtig, bei praktischen Anwendungen ein verlässliches Mass für die Varianzen und damit für die Gewichte im Ausgleichsfunktional zu haben und auch sicherzustellen, dass die Fehler der Messungen normalverteilt sind.
bottom:.0001pt\'>Vor Behandlung des
allgemeinen nichtlinearen Falles ist es sinnvoll, zunächst den linearen Fall zu behandeln, da das lineare Ausgleichsproblem
in der iterativen Lösung des nichtlinearen Falls als häufig zu lösendes
Unterproblem auftritt.
character:line-break\'>
character:line-break\'>
bottom:.0001pt\'>Der lineare Fall: Die Normalgleichungen
bottom:.0001pt\'>Der gewichtete Residuenvektor
bottom:.0001pt\'>
bottom:.0001pt\'>mit und
ist linear in
und führt zu einem linearen Ausgleichsproblem
im Sinne der kleinsten Quadrate
bottom:.0001pt\'>
bottom:.0001pt\'>mit konstanter Matrix . Ein
Spezialfall des linearen Ausgleichsproblems ist die lineare Regression, der das
Problem zugrunde liegt, durch eine Menge von Messpunkten eine Gerade zu legen.
Das lineare Ausgleichsproblem besitzt mindestens eine Lösung
, die jedoch
nicht notwendigerweise eindeutig ist. Bezeichnet
eine weitere Lösung, so gilt
. Alle
Lösungen von (3) erfüllen die Normalgleichungen
bottom:.0001pt\'>als notwendige Bedingungen. Lösungen von (4) sind ihrerseits Lösungen von (3), d.h. die Normalgleichungen sind die notwendigen und hinreichenden Bedingungen für die Existenz und Bestimmung der Ausgleichslösung im Sinne der kleinsten Quadrate.
bottom:.0001pt\'>Der Betrag des Residuenvektors
der Lösung ist eindeutig bestimmt durch
bottom:.0001pt\'>
bottom:.0001pt\'>Hat vollen Rang, so besitzt (3) eine eindeutige
Lösung und es existiert eine eindeutige Lösung für
, die als
Lösung des linearen Gleichungssystems
bestimmt werden kann. In diesem Fall gilt
, d.h. die
symmetrische Matrix
hat vollen Rang. Unter numerischen
Gesichtspunkten sollten Ausgleichsprobleme möglichst nicht direkt mit Hilfe der
Normalgleichungen gelöst werden, da hier aus den folgenden Gründen grosse
Vorsicht geboten ist:
bottom:.0001pt\'>· die Berechnung erfordert die Auswertung von Skalarprodukten
(wegen des Verlustes signifikanter Stellen bei Addition und Subtraktion von
Zahlen ähnlicher Grössenordnung sollte dies vermieden werden);
bottom:.0001pt\'>· mögliche grosse
Fehlerfortpflanzung der Fehler des Terms der rechten Seite bei der Lösung der
Normalgleichungen, da die Fehlerfortpflanzung proportional zur Konditionszahl
ist; misst man die Norm einer Matrix in der
euklidischen Norm, so ist
gerade das Verhältnis des grössten zum
kleinsten Eigenwert.
bottom:.0001pt\'>Mit Hilfe von
Orthogonalisierungsverfahren kann das lineare Ausgleichsverfahren nur mit Hilfe
der Matrix gelöst werden und bedarf nicht des Produktes
.
character:line-break\'>
character:line-break\'>
bottom:.0001pt\'>Der lineare Fall: Ein Orthogonalisierungsverfahren
bottom:.0001pt\'>Numerische Probleme,
die sich aus grossen Konditionszahlen von ergeben, können begrenzt werden, indem man
sich auf Lösungsverfahren beschränkt, die nur auf
direkt aufbauen. Orthogonalisierungsverfahren
zur Lösung linearer Ausgleichsprobleme basieren auf orthogonalen
Transformationen
; diese
lassen die euklidische Norm von Matrizen invariant und führen zu numerisch
stabilen Verfahren zur Lösung von Ausgleichsproblemen.
Householder-Transformationen sind eine spezielle Variante othogonaler
Transformationen. Die Matrix
wird dabei so transformiert, dass
bottom:.0001pt\'>1) die Lösung des Problems unverändert bleibt,
bottom:.0001pt\'>2) die Konditionszahl der transformierten Matrix nicht grösser als
ist und
bottom:.0001pt\'>3) die transformierte
Matrix eine triangulare Struktur hat, die sich gut
für numerische Berechnungen eignet.
bottom:.0001pt\'>Sei , eine Folge
von Householder-Transformationen, d.h. von speziellen Matrizen der Form
bottom:.0001pt\'>
bottom:.0001pt\'>wobei die
-Einheitsmatrix
und
einen beliebigen n-dimensionalen
Vektor bezeichnet. Householder-Transformationen
sind Spiegelungen des Vektorraums
bezüglich des orthogonalen Komplements
bottom:.0001pt\'>
bottom:.0001pt\'>und sind unitär,
ebenso wie das Produkt . Der Vektor
w kann nun derart gewählt werden, dass
einen gegebenen Vektor
, dessen
erste Komponente von Null verschieden ist (falls
, kann dies
durch geeignete Permutation stets erreicht werden; im Fall
ist nichts zu tun), auf ein Vielfaches des
ersten Einheitsvektors
abbildet, d.h.
bottom:.0001pt\'>
bottom:.0001pt\'>Für einen von Null verschiedenen Vektor impliziert dies die folgenden Formeln zur Berechnung von Householder Transformationen:
bottom:.0001pt\'>
bottom:.0001pt\'>Hat die Matrix n linear unabhängige
Spaltenvektoren
, so lassen
sich die Matrizen
und der Vektor
des linearen Ausgleichsproblems (3) letztlich
mit Hilfe von
in eine Matrix
mit einer einfacheren Struktur,
bottom:.0001pt\'>und einen Vektor
bottom:.0001pt\'>
bottom:.0001pt\'>transformieren; ferner
ist eine obere Dreiecksmatrix. Wie in der Numerik
üblich, wird aus Gründen der Genauigkeit und Stabilität
nicht direkt als Matrizenprodukt ausgewertet,
sondern sukzessive als Folge von Householder-Transformationen und
Modifikationen von
erstellt.
bottom:.0001pt\'>Damit nimmt das ursprüngliche Problem (3) die Gestalt
bottom:.0001pt\'>
bottom:.0001pt\'>an. Wegen der
Verwendung der euklidischen Norm und der Unitarität von erhält man
bottom:.0001pt\'>
bottom:.0001pt\'>Da ein konstanter Vektor ist, nimmt
sein Minimum an, wenn der unbekannte Vektor x Lösung des linearen Gleichungssystems
bottom:.0001pt\'>ist. Daher löst schliesslich das lineare Ausgleichsproblem in
euklidischer Norm. Die obere Dreiecksmatrix
besitzt genau dann und nur dann eine
eindeutige inverse Matrix, wenn
. Da
regulär ist, ist die Regularität von
äquivalent zur Regularität von
.
character:line-break\'>
character:line-break\'>
bottom:.0001pt\'>Der nichtlineare Fall: Ein Gauss-Newton Verfahren
bottom:.0001pt\'>Um das nichtlineare
Problem (1) zu lösen, kann man es als unbeschränktes Optimierungsproblem
behandeln, indem man auf dem Gradienten und der Hesse-Matrix
aufbaut. Über diesen Zugang leitet man die
notwendigen Bedingungen ab, linearisiert sie und erzeugt letztlich wieder die
Normalgleichungen; aus numerischen Gründen wie oben diskutiert wird dieser Weg
nicht empfohlen. Trotzdem ist es gut, seine Strukur zu kennen.
bottom:.0001pt\'>In einem
Ausgleichsproblem mit euklidischer Norm hat der Gradient von
die einfache Gestalt
bottom:.0001pt\'>
bottom:.0001pt\'>wobei die Jacobi-Matrix von
bezeichnet. Die Hessematrix
von
ist
bottom:.0001pt\'>
bottom:.0001pt\'>mit
bottom:.0001pt\'>
bottom:.0001pt\'>Sind die zweiten
Ableitungen verfügbar, dann kann (5) in der quasi-Newton
Methode verwendet werden. In den meisten Fällen ist es aber möglich,
stattdessen eine typische Eigenschaft von Ausgleichsproblemen auszunutzen. Die
Residuen
werden im Lösungspunkt
gewöhnlich recht klein sein und
kann unter dieser Annahme kleiner Residuen mit
bottom:.0001pt\'>approximiert werden.
Diese Approximation der Hesse-Matrix erhält man auch, wenn man die Residuen entwickelt und bis zur linearen Ordnung
mitführt. Der Vorteil, und dies resultiert aus der speziellen Struktur der
MdkQ, liegt darin, dass Informationen über die zweite Ableitung komplett aus
Ableitungen erster Ordnung gewonnen werden. Dies ist typisch für
Ausgleichsprobleme, und diese spezielle Variante des Newton-Verfahrens wird
Gauss-Newton-Methode genannt. Gedämpfte Gauss-Newton-Verfahren bedienen sich
eines Liniensuchverfahrens, um aus einer vorliegenden Lösung
in der k-ten
Iteration
zu erhalten, und gehen wie folgt vor:
bottom:.0001pt\'>· Bestimmung der
Suchrichtung aus dem linearen Gleichungssystem
bottom:.0001pt\'>das sich aus dem
klassischen Newton-Verfahren bei Optimierungsfragestellungen, d.h. den
Bedingungen , ableitet;
bottom:.0001pt\'>· Anwendung des Liniensuchverfahrens zur Bestimmung des Dämpfungsfaktors
bottom:.0001pt\'>
bottom:.0001pt\'>· Iteration .
bottom:.0001pt\'>Das
Gauss-Newton-Verfahren und seine Konvergenzeigenschaften hängen stark von der
Approximationgüte der Hesse-Matrix ab. In Problemen mit relativ grossen Residuen
wird in Formel (5) an Bedeutung zunehmen und die
Konvergenzrate abnehmen. Für
und hinreichend nahe der optimalen Lösung
konvergiert das Gauss-Newton-Verfahren nur mit linearer Konvergenzrate. Nur für
kann eine quadratische Konvergenz erzielt
werden. Trotz dieser Nachteile stellt es ein klassisches, wenn auch hier nicht
empfohlenes Verfahren zur Lösung nichtlinearer Ausgleichsprobleme dar.
bottom:.0001pt\'>Zu beachten ist, dass die linearen Gleichungen (6), die in jeder Iteration k gelöst werden müssen, die Normalgleichungen des Ausgleichsproblems
bottom:.0001pt\'>
bottom:.0001pt\'>mit ,
,
sind.
bottom:.0001pt\'>Eine beliebte Methode
zur Lösung unbeschränkter nichtlinearer Ausgleichsprobleme ist der
Levenberg-Marquardt-Algorithmus, der 1944 von Levenberg und unabhängig davon
1963 von Marquardt vorgeschlagen wurde. Dieses Verfahren modifiziert die
Eigenwerte der Matrix und versucht den Einfluss der Eigenvektoren,
die zum kleinsten Eigenwert gehören, zu reduzieren.
bottom:.0001pt\'>Im Zusammenhang mit
linearen Ausgleichsproblemen zeigten Orthogonalisierungsverfahren einen Weg
auf, die numerischen Probleme zu umgehen, die sich bei der Lösung der
Normalgleichungen ergeben. Führt man die Linearisierung des nichtlinearen
Ausgleichsproblems ein wenig verschieden durch, so gewinnt man ein
Gauss-Newton-Verfahren, das die Bildung der Normalgleichungen umgeht. Hierzu
wird die Taylor-Reihenentwicklung des Residuenvektors in erster Ordnung betrachtet:
bottom:.0001pt\'>
bottom:.0001pt\'>Die notwendigen Bedingungen zur Lösung von (8) sind wieder die Normalgleichungen von (7). Dies zeigt, dass die Lösungen von (8) und des ursprünglichen Problems identisch sind. Die in (8) verwendete Entwicklung ist allerdings nur dann eine gute Approximation des ursprünglichen Problems, wenn gilt:
bottom:.0001pt\'>· der
Residuenvektor , oder
äquivalent dazu
, ist
hinreichend klein; oder
bottom:.0001pt\'>· die Differenz ist hinreichend klein.
bottom:.0001pt\'>In gedämpften
Gauss-Newton-Verfahren mit Dämpfungsparameter ist das ursprüngliche Problem (8) daher
ersetzt durch
bottom:.0001pt\'>
bottom:.0001pt\'>mit einem
nachgeschalteten Liniensuchverfahren. Zunächst wird also das lineare
Ausgleichsproblem (9) mit und
z.B. mit dem Householder-Verfahren gelöst; das
Ergebnis ist die Suchrichtung
. In der
Iteration wird dann
gesetzt, wobei der Dämpfungsfaktor
bottom:.0001pt\'>mit Hilfe eines
Liniensuchverfahren oder natürlicher Niveaufunktionen gewonnen wird.
character:line-break\'>
character:line-break\'>
bottom:.0001pt\'>2 Beschränkte Ausgleichsprobleme
bottom:.0001pt\'>Beschränkte Ausgleichsprobleme der Form
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>werden oft mit dem in
der beschränkten Optimierung bekannten Verfahren der sequentiellen
quadratischen Programmierung gelöst; dieser Zugang ist aber nur bedingt zu
empfehlen. Sinnvoller ist es, verallgemeinerte Gauss-Newton-Verfahren in
Verbindung mit Orthogonalisierungstechniken zu verwenden.
character:
line-break\'>
character:line-break\'>
bottom:.0001pt\'>Gauss-Newton-Verfahren für beschränkte Ausgleichsprobleme
bottom:.0001pt\'>Formal soll ein
Ausgleichsproblem mit Randbedingungen der Form
bottom:.0001pt\'>
bottom:.0001pt\'>mit Residuenvektor gelöst werden. Hier sei nur der gleichungsbeschränkte
Fall betrachtet. Als Startwert sei
gegeben; die Iteration verfährt in der Form
mit einer Dämpfungskonstante
, die nicht
beliebig klein werden soll, d.h.
. Zur
Berechnung des Inkrementes
wird
in (10) durch
substituiert und die Terme
und
um
linearisiert. Dann ist
Lösung des linearen, gleichungsbeschränkten
Ausgleichsproblems
bottom:.0001pt\'>
bottom:.0001pt\'>mit den Jacobi-Matrizen
bottom:.0001pt\'>
bottom:.0001pt\'>Unter bestimmten
Annahmen über die Regularität der Jacobi-Matrizen existiert eine eindeutige Lösung
von (11) und eine eindeutige lineare Abbildung
(die verallgemeinerte Inverse genannt wird und
nicht mit der Moore-Penrose-Inversen (Matrix) verwechselt werden darf), die den
Bedingungen
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>genügt. Die Lösung des linearen Problems folgt eindeutig aus den
Kuhn-Tucker-Bedingungen (Lagrange-Multiplikatoren)
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>wobei den Vektor der Lagrange-Multiplikatoren
bezeichnet.
bottom:.0001pt\'>Zur numerischen
Berechnung von wird die verallgemeinerte Inverse nicht
explizit berechnet. Stattdessen werden Verfahren entwickelt, die die
Struktureigenschaften der Jacobi-Matrizen ausnutzen und spezielle
Faktorisierungen von
und
verwenden. Da die Jacobi-Matrizen und ihre
Zerlegungen in jeder Iteration bekannt sind, lassen sich nach Konvergenz
Kovarianz- und Korrelationsmatrix für den Lösungsvektor
ausrechnen.
character:
line-break\'>
character:line-break\'>
bottom:.0001pt\'>Parameterbestimmung in Systemen von Differentialgleichungen
bottom:.0001pt\'>Mit Hilfe eines
Mehrzielansatzes können auch Differentialgleichungssysteme mit geringen
Stabilitätseigenschaften und selbst chaotische Systeme untersucht werden.
Gegeben seien eine Differentialgleichung (mit Schaltbedingungen) für die
Zustandsvariable
bottom:.0001pt\'>
bottom:.0001pt\'>mit einer von einem
Parametervektor abhängigen rechten Seite, Anfangsbedingungen
sowie Messwerten
für die Zustandsvariablen
oder allgemeiner für Funktionen derselben,
bottom:.0001pt\'>
bottom:.0001pt\'>die zu Zeiten (den Messpunkten) in einem Zeitraum
erhoben wurden und mit einem Messfehler
behaftet sind. Sind die Messfehler
unabhängig sowie normalverteilt mit Mittelwert
Null und sind ihre Varianzen
bekannt, so ist ein angemessenes
Zielfunktional durch
bottom:.0001pt\'>
bottom:.0001pt\'>gegeben. Insbesondere
der Parametervektor , aber auch
die Trajektorien
können Gleichungs- und Ungleichungsbedingungen
unterworfen werden, so dass zusätzlich bekannte Informationen über die zu
identifizierenden Parameter, z.B. Positivitätsforderungen, in der
Problemformulierung berücksichtigt werden können.
bottom:.0001pt\'>Ein naheliegender und
häufig verwendeter Ansatz zur numerischen Behandlung von
Parameteridentifizierungsproblemen bei Differentialgleichungen besteht in der
wiederholten Lösung des Anfangswertproblems (AWP) für feste Parameter innerhalb
einer iterativen Prozedur zur Anpassung der Parameter, um die Approximation zu
verbessern. Das inverse Problem wird also wieder auf eine Folge von AWP
zurückgeführt. Diese Reinversion des inversen Problems eliminiert die Zustandsvariablen
zugunsten der unbekannten Parameter
. Dies hat
zur Folge, dass jegliche Information über den Lösungsverlauf, die für das
inverse Problem gerade charakteristisch ist, ausser Acht gelassen wird; dies
wiederum hat einen verkleinerten Konvergenzbereich zur Folge. Durch schlechte
Startwerte der Parameter kann man zudem in schlecht konditionierte Bereiche des
AWPs kommen, was zum Verlust der Stabilität führen kann, oder die Lösung läuft
in eine Polstelle, so dass gar nicht für alle Messwerte das Ausgleichsfunktional
ausgewertet werden kann.
bottom:.0001pt\'>Alternativ zum AWP-Ansatz kann das inverse Problem als überbestimmtes, beschränktes Mehrpunktrandwertproblem mit Schalt- und Sprungbedingungen aufgefasst werden, und zwar unabhängig davon, ob das »direkte« Problem auf Grund der Modellbedingungen ein Randwertproblem darstellt oder nicht. Dies ermöglicht insbesondere auch die Modellierung dynamischer Prozesse, die nicht durch Differentialgleichungen mit glatter rechter Seite beschrieben werden. Sie werden dann als Differentialgleichungen mit Schaltbedingungen formuliert,
bottom:.0001pt\'>
bottom:.0001pt\'>wobei sich die rechte
Seite bei einem Vorzeichenwechsel der Schaltfunktion unstetig ändert. Solche Unstetigkeiten können
z.B. durch sprunghafte Änderungen physikalischer Grössen oder Gesetzmässigkeiten
auftreten. Die Schaltpunkte sind dann implizit durch
bottom:.0001pt\'>
bottom:.0001pt\'>gegeben. Schaltpunkte können auch explizit gegeben sein; ebenso ist es möglich, dass Unstetigkeiten der Zustandsvariablen selbst vorkommen.
bottom:.0001pt\'>Für ein gewähltes und
an das Problem wie auch an die Messwerte angepasstes Gitter von m Stützstellen
(
Teilintervalle
),
bottom:.0001pt\'>
bottom:.0001pt\'>welches das
Messintervall überdeckt (), wird die
diskrete Trajektorie
als Variable neben den unbekannten Parametern
eingeführt; die
sind dabei die Anfangswerte der
Teiltrajektorien. Integriert wird dabei jeweils von
bis
.
bottom:.0001pt\'>Zu einer gegebenen
Schätzung des erweiterten Variablenvektors berechnet man die Lösungen
der
unabhängigen Anfangswertprobleme auf jedem
Teilintervall
und erhält so eine (zunächst unstetige)
Parameterisierung von
. Durch die
zusätzlichen Anschlussbedingungen
bottom:.0001pt\'>
bottom:.0001pt\'>wird die Stetigkeit der Lösung gesichert.
bottom:.0001pt\'>Formal handelt es sich
bei dem beschriebenen Ausgleichsproblem um ein beschränktes Optimierungsproblem
der Gestalt (10) mit . Je nach
Problemklasse kann die Anzahl der Variablen von unter 100 bis zu mehreren
tausend betragen.
bottom:.0001pt\'>Das beschränkte,
hochgradig nichtlineare Problem wird wieder mit Hilfe eines verallgemeinerten,
gedämpften Gauss-Newton-Verfahrens gelöst. Durch Berücksichtigung der infolge
der Bedingungen (12) des Mehrzielansatzes speziellen Form der Matrizen kann (10) durch einen
Kondensierungsalgorithmus auf ein System erheblich niedrigerer Dimension
bottom:.0001pt\'>
bottom:.0001pt\'>reduziert werden, aus
dem zunächst und schliesslich
bestimmt wird; hierbei treten die Einzelschritte
»Rückwärtsrekursion«, »Vorwärtsrekursion« und die »Lösung des kondensierten
Problems« auf.
bottom:.0001pt\'>Parameteridentifizierungsprobleme in partiellen Differentialgleichungssystemen lassen sich in bestimmten Fällen mit der beschriebenen Methode ebenfalls lösen, indem man das partielle Differentialgleichungssystem mit Hilfe der Methode der Linien (MdL) auf ein System gewöhnlicher Differentialgleichungen zurückführt. Dies entspricht einer Finite-Differenzen oder Finite-Elemente-Diskretisierung im räumlichen Bereich; der zeitliche Bereich wird mit Hilfe des Mehrzielverfahrens diskretisiert. Die MdL wird besonders häufig verwendet bei zeitabhängigen partiellen Differentialgleichungsmodellen mit nur einer räumlichen Variablen. Wie im folgenden Beispiel der Diffusionsgleichung gezeigt, führt die räumliche Diskretisierung auf eine gekoppeltes System von N gewöhnlichen Differentialgleichungen, wenn N die Anzahl der Diskretisierungspunkte bezeichnet. Die Diffusionsgleichung
bottom:.0001pt\'>
bottom:.0001pt\'>mit zu bestimmendem, ortsunabhängigem Diffusionskoeffizienten D (weitere Parameter treten in den Randbedingungen auf, sollen hier aber nicht weiter betrachtet werden) erlaubt die räumliche Diskretisierung nach z,
bottom:.0001pt\'>
bottom:.0001pt\'>
bottom:.0001pt\'>Approximiert man die räumliche Ableitung durch ihre finiten Differenzen
bottom:.0001pt\'>
bottom:.0001pt\'>so kann die Diffusionsgleichung
durch die gewöhnlichen Differentialgleichungen
bottom:.0001pt\'>
bottom:.0001pt\'>ersetzt und mit Hilfe
des oben beschriebenen Verfahrens gelöst werden. Als Anwendungsbeispiel sei die
Modellierung und Analyse hygroskopischer Flüssigkeiten genannt, bei denen
Diffusionsraten und Stofftransportkonstanten an der Oberfläche bestimmt werden.
character:line-break\'>
character:line-break\'>
bottom:.0001pt\'>Literatur:
bottom:.0001pt\'>C.L. Lawson und R.J.
Hanson: Solving Least Square Problems, Prentice Hall, Englewood Cliffs, NJ,
1974.
R.L. Branham: Scientific Data Analysis: An Introduction to Overdetermined
Systems, Springer, New York, 1990.
J. Stoer und R. Bulirsch: Einführung in der Numerische Analysis, 1992.
P.E. Gill, W. Murray und M.H. Wright: Practical Optimisation, Academic Press,
London, 1981.
H.G. Bock: Randwertproblemmethoden zur Parameteridentifizierung in Systemen
nichtlinearer Differentialgleichungen, Universität Heidelberg, 1987.
Das freie Technik-Lexikon. Fundierte Informationen zu allen Fachgebieten der Ingenieurwissenschaften, für Wissenschaftler, Studenten, Praktiker & alle Interessierten. Professionell dargeboten und kostenlos zugängig.
TechniklexikonModernes Studium der Physik sollte allen zugängig gemacht werden.