Matrixexponential

In der Mathematik ist das Matrixexponential, auch als Matrixexponentialfunktion bezeichnet eine Matrixfunktion, welche analog zur gewöhnlichen (skalaren) Exponentialfunktion definiert ist. Das Matrixexponential stellt die Verbindung zwischen Lie-Algebra und der zugehörigen Lie-Gruppe her.

Definition

Sei X {\displaystyle X} eine reelle oder komplexe n × n {\displaystyle n\times n} -Matrix. Das Exponential von X {\displaystyle X} , welches mit e X {\displaystyle e^{X}} oder exp ( X ) {\displaystyle \exp(X)} bezeichnet wird, ist die n × n {\displaystyle n\times n} -Matrix, welche durch die folgende Potenzreihe definiert ist (Taylor-Entwicklung):

e X = k = 0 X k k ! = E + X + X 2 2 + {\displaystyle e^{X}=\sum _{k=0}^{\infty }{\frac {X^{k}}{k!}}=E+X+{\frac {X^{2}}{2}}+\dots } .

Diese Reihe konvergiert, genauso wie die der gewöhnlichen Exponentialfunktion, immer. Daher ist das Exponential von X {\displaystyle X} wohldefiniert. Wenn X {\displaystyle X} eine 1 × 1 {\displaystyle 1\times 1} -Matrix ist, entspricht das Matrixexponential von X {\displaystyle X} der gewöhnlichen Exponentialfunktion. Eine Verallgemeinerung, welche auch für unendliche Matrizen sinnvoll ist, ist die Exponentialfunktion auf beliebigen Banachalgebren.

Eigenschaften

Das Matrixexponential teilt eine Reihe der Eigenschaften der gewöhnlichen Exponentialfunktion. Beispielsweise ist das Exponential der ( n × n ) {\displaystyle (n\times n)} -Nullmatrix 0 {\displaystyle 0} gleich der ( n × n ) {\displaystyle (n\times n)} -Einheitsmatrix E {\displaystyle E} :

e 0 = E {\displaystyle e^{0}=E} .

Für beliebige komplexe n × n {\displaystyle n\times n} -Matrizen X {\displaystyle X} und beliebige komplexe Zahlen a {\displaystyle a} und b {\displaystyle b} gilt

e a X e b X = e ( a + b ) X {\displaystyle e^{aX}\cdot e^{bX}=e^{(a+b)X}} .

Daraus folgt

e X e X = e ( 1 1 ) X = e 0 = E {\displaystyle e^{X}\cdot e^{-X}=e^{(1-1)X}=e^{0}=E} ,

das heißt

( e X ) 1 = e X {\displaystyle \left(e^{X}\right)^{-1}=e^{-X}} .

Dabei bezeichnet ( e X ) 1 {\displaystyle \left(e^{X}\right)^{-1}} die zu e X {\displaystyle e^{X}} inverse Matrix.

Die Exponentialfunktion erfüllt e x + y = e x e y {\displaystyle e^{x+y}=e^{x}\,e^{y}} für alle Zahlen x {\displaystyle x} und y {\displaystyle y} . Dasselbe gilt für kommutierende Matrizen X {\displaystyle X} und Y {\displaystyle Y} , das heißt, aus

X Y = Y X {\displaystyle X\cdot Y=Y\cdot X}

folgt

e X + Y = e X e Y {\displaystyle e^{X+Y}=e^{X}\cdot e^{Y}} .

Für nichtkommutierende Matrizen stimmt diese Gleichung im Allgemeinen nicht. In diesem Fall kann man e X + Y {\displaystyle e^{X+Y}} mit Hilfe der Baker-Campbell-Hausdorff-Formel berechnen.

Das Exponential der zu X {\displaystyle X} transponierten Matrix ist gleich der Transposition des Exponentials von X {\displaystyle X} :

exp ( X T ) = ( exp X ) T {\displaystyle \exp \left(X^{\mathrm {T} }\right)=\left(\exp X\right)^{\mathrm {T} }}

Daraus folgt, dass die Matrixexponentialfunktion symmetrische Matrizen auf symmetrische Matrizen und schiefsymmetrische Matrizen auf orthogonale Matrizen abbildet. Analog gilt zwischen Adjunktion und Exponentiation die Beziehung

exp ( X ) = ( exp X ) {\displaystyle \exp \left(X^{*}\right)=\left(\exp X\right)^{*}} ,

so dass die Matrixexponentialfunktion hermitesche Matrizen auf hermitesche Matrizen und schiefhermitesche Matrizen auf unitäre Matrizen abbildet.

Weiterhin gelten:

  • Wenn Y {\displaystyle Y} invertierbar ist, dann ist e Y X Y 1 = Y e X Y 1 {\displaystyle e^{YXY^{-1}}=Ye^{X}Y^{-1}} .
  • det ( e X ) = e tr ( X ) {\displaystyle \det(e^{X})=e^{\operatorname {tr} (X)}} , hier bezeichnet tr ( X ) {\displaystyle \operatorname {tr} (X)} die Spur der quadratischen Matrix X {\displaystyle X} .
  • e diag ( x 1 , , x n ) = diag ( e x 1 , , e x n ) {\displaystyle e^{\operatorname {diag} (x_{1},\ldots ,x_{n})}=\operatorname {diag} \left(e^{x_{1}},\ldots ,e^{x_{n}}\right)} .

Die Exponentialabbildung

Das Exponential einer Matrix ist immer eine invertierbare Matrix. Die Inverse von e X {\displaystyle e^{X}} ist durch e X {\displaystyle e^{-X}} gegeben. Das (komplexe) Matrixexponential liefert somit eine Abbildung

exp : M n ( C ) GL ( n , C ) {\displaystyle \exp \colon M_{n}(\mathbb {C} )\to {\mbox{GL}}(n,\mathbb {C} )}

aus dem Vektorraum aller (komplexen) ( n × n ) {\displaystyle (n\times n)} -Matrizen in die allgemeine lineare Gruppe, die Gruppe aller (komplexen) invertierbaren Matrizen. Diese Abbildung ist kein Gruppenhomomorphismus auf der gesamten Gruppe M n ( C ) {\displaystyle M_{n}(\mathbb {C} )} , aber auf jeder Untergruppe, deren Matrizen multiplikativ miteinander kommutieren. Des Weiteren ist sie surjektiv, das heißt, jede (reelle oder komplexe) invertierbare Matrix kann als die Exponentialmatrix einer komplexen Matrix geschrieben werden. Urbilder (bzw. lokale Schnitte) lassen sich durch Matrixlogarithmen berechnen.

Für je zwei Matrizen X {\displaystyle X} und Y {\displaystyle Y} gilt

e X + Y e X Y e X e Y {\displaystyle \|e^{X+Y}-e^{X}\|\leq \|Y\|e^{\|X\|}e^{\|Y\|}} ,

wobei {\displaystyle \|\cdot \|} eine beliebige Matrixnorm bezeichnet. Daraus folgt, dass die Exponentialabbildung stetig und auf kompakten Teilmengen von M n ( C ) {\displaystyle M_{n}(\mathbb {C} )} sogar lipschitzstetig ist. Für die Norm des Matrixexponentials selbst gibt es aber eine präzisere Schranke

e X e μ ( X ) {\displaystyle \|e^{X}\|\leq e^{\mu (X)}}

mit der logarithmischen Matrixnorm μ {\displaystyle \mu } und dem numerischen Wertebereich.

Die Zuordnung

t e t X , t R , {\displaystyle t\mapsto e^{tX},\qquad t\in \mathbb {R} ,}

definiert eine glatte Kurve in der allgemeinen linearen Gruppe, welche für t = 0 {\displaystyle t=0} die Einheitsmatrix liefert. Dies liefert eine Einparameter-Untergruppe der allgemeinen linearen Gruppe, da

e t X e s X = e ( t + s ) X {\displaystyle e^{tX}e^{sX}=e^{(t+s)X}}

gilt. Die Ableitung dieser Funktion im Punkt t {\displaystyle t} ist durch

d d t e t X = X e t X ( 1 ) {\displaystyle {\frac {d}{dt}}e^{tX}=Xe^{tX}\qquad (1)}

gegeben. Die Ableitung für t = 0 {\displaystyle t=0} ist gerade die Matrix X {\displaystyle X} , das heißt, X {\displaystyle X} erzeugt diese Einparameter-Untergruppe.

Allgemeiner gilt:

d d t e X ( t ) = 0 1 e ( 1 α ) X ( t ) d X ( t ) d t e α X ( t ) d α {\displaystyle {\frac {d}{dt}}e^{X(t)}=\int _{0}^{1}e^{(1-\alpha )X(t)}{\frac {dX(t)}{dt}}e^{\alpha X(t)}d\alpha }

Beispiele von Lie-Algebren und zugehörigen Lie-Gruppen

Lie-Gruppe Beispiel
Allgemeine lineare Gruppe
G L ( n , K ) {\displaystyle \mathrm {GL} (n,K)}
g l ( n ) = M n ( R ) {\displaystyle {\mathfrak {gl}}(n)=M_{n}(\mathbb {R} )}

G L ( n ) = { X M n ( R ) | det ( X ) 0 } {\displaystyle \mathrm {GL} (n)=\{X\in M_{n}(\mathbb {R} )\vert \det(X)\neq 0\}} .

Orthogonale Gruppe
O ( n , K ) {\displaystyle \mathrm {O} (n,K)}
o ( n ) = { X M n ( R ) | X T = X } {\displaystyle {\mathfrak {o}}(n)=\{X\in M_{n}(\mathbb {R} )\vert X^{T}=-X\}}

O ( n ) = { X M n ( R ) | X T = X 1 } {\displaystyle \mathrm {O} (n)=\{X\in M_{n}(\mathbb {R} )\vert X^{T}=X^{-1}\}}

Unitäre Gruppe
U ( n ) {\displaystyle \mathrm {U} (n)}
u ( n ) = { X M n ( C ) | X = X } {\displaystyle {\mathfrak {u}}(n)=\{X\in M_{n}(\mathbb {C} )\vert X^{*}=-X\}}

U ( n ) = { X M n ( C ) | X = X 1 } {\displaystyle \mathrm {U} (n)=\{X\in M_{n}(\mathbb {C} )\vert X^{*}=X^{-1}\}}

Spezielle unitäre Gruppe
S U ( n ) {\displaystyle \mathrm {SU} (n)}
s u ( 2 ) = { X M 2 ( C ) | X = X , tr ( X ) = 0 } {\displaystyle {\mathfrak {su}}(2)=\{X\in M_{2}(\mathbb {C} )\vert X^{*}=-X,\operatorname {tr} (X)=0\}} wird von exp {\displaystyle \exp } surjektiv auf
S U ( 2 ) = { A M 2 ( C ) | A = A 1 , det ( A ) = 1 } {\displaystyle \mathrm {SU} (2)=\{A\in M_{2}(\mathbb {C} )\vert A^{*}=A^{-1},\det(A)=1\}} abgebildet.
Spezielle orthogonale Gruppe
S O ( n , K ) {\displaystyle \mathrm {SO} (n,K)}
s o ( n , R ) = o ( n , R ) = { X M n ( R ) | X T = X } {\displaystyle {\mathfrak {so}}(n,\mathbb {R} )={\mathfrak {o}}(n,\mathbb {R} )=\{X\in M_{n}(\mathbb {R} )\vert X^{T}=-X\}} (schiefsymmetrische Matrizen)
wird von exp {\displaystyle \exp } surjektiv auf S O ( n , R ) = { A M n ( R ) | A T = A 1 , det ( A ) = 1 } {\displaystyle \mathrm {SO} (n,\mathbb {R} )=\{A\in M_{n}(\mathbb {R} )\vert A^{T}=A^{-1},\det(A)=1\}} abgebildet.
Spezielle lineare Gruppe
S L ( n , K ) {\displaystyle \mathrm {SL} (n,K)}
s l ( 2 , C ) {\displaystyle {\mathfrak {sl}}(2,\mathbb {C} )} wird von exp {\displaystyle \exp } nicht surjektiv auf S L ( 2 , C ) {\displaystyle \mathrm {SL} (2,\mathbb {C} )} abgebildet.
Notorisches Gegenbeispiel ( 1 a 0 1 ) S L ( 2 , C ) {\displaystyle {\begin{pmatrix}-1&a\\0&-1\end{pmatrix}}\in \mathrm {SL} (2,\mathbb {C} )} mit a 0 {\displaystyle a\neq 0} liegt nicht im Bild von s l ( 2 , C ) {\displaystyle {\mathfrak {sl}}(2,\mathbb {C} )} .

Aus dem letzten Beispiel ist ersichtlich, dass die Exponentialabbildung für die Erzeugung von Lie-Gruppen (je nach Lie-Algebra) im Allgemeinen nicht surjektiv ist.

Lineare Differentialgleichungen

Einer der Vorzüge des Matrixexponentials ist, dass man es benutzen kann, um Systeme von linearen gewöhnlichen Differentialgleichungen zu lösen, die z. B. für das Zustandsraummodell von dynamischen Übertragungssystemen verwendet werden. Aus Gleichung (1) oben folgt zum Beispiel, dass die Lösung des Anfangswertproblems

d d t y ( t ) = A y ( t ) , y ( t 0 ) = y 0 {\displaystyle {\frac {d}{dt}}y(t)=Ay(t),\quad y(t_{0})=y_{0}}

mit einer quadratischen Matrix A {\displaystyle A} durch

y ( t ) = e A ( t t 0 ) y 0 {\displaystyle y(t)=e^{A(t-t_{0})}y_{0}}

gegeben ist.

Das Matrixexponential kann auch zur Lösung der inhomogenen Gleichung

d d t y ( t ) = A y ( t ) + z ( t ) , y ( t 0 ) = y 0 {\displaystyle {\frac {d}{dt}}y(t)=Ay(t)+z(t),\quad y(t_{0})=y_{0}} ,

verwendet werden. Beispiele findet man unten im Kapitel Anwendungen.

Für Differentialgleichungen der Form

d d t y ( t ) = A ( t ) y ( t ) , y ( t 0 ) = y 0 {\displaystyle {\frac {d}{dt}}y(t)=A(t)\,y(t),\quad y(t_{0})=y_{0}}

mit nicht-konstantem A {\displaystyle A} gibt es im Allgemeinen keine geschlossenen Lösungen. Die Magnus-Reihe liefert jedoch eine allgemeine Lösung in Matrixschreibweise über die Matrix-Exponentialfunktion auch im Fall nicht-konstanter Koeffizienten (als unendliche Reihe des Exponenten).[1]

Berechnung des Matrixexponentials

Taylor-Reihe

Die Exponentialfunktion der Matrix A C n × n {\displaystyle A\in \mathbb {C} ^{n\times n}} und t R {\displaystyle t\in \mathbb {R} } kann prinzipiell über ihre Taylor-Entwicklung berechnet werden:

exp ( A t ) = k = 0 A k t k k ! = E + A t + A 2 t 2 2 + A 3 t 3 6 + A 4 t 4 24 + {\displaystyle \exp(At)=\sum _{k=0}^{\infty }{\frac {A^{k}t^{k}}{k!}}=E+At+{\frac {A^{2}t^{2}}{2}}+{\frac {A^{3}t^{3}}{6}}+{\frac {A^{4}t^{4}}{24}}+\cdots }

Hierbei bezeichnet k ! {\displaystyle k!} die Fakultät von k {\displaystyle k} . Bei ausreichender Genauigkeit (Reihe ist absolut konvergent) soll die Reihe bei einer endlichen Zahl an Berechnungsschritten abbrechen. Je größer die Einträge der Matrix sind, desto mehr Glieder der Reihe müssen aber berechnet werden (z. B. für die Lösung der linearen DGL für einen großen Zeitschritt). Um den Lösungsalgorithmus dahingehend zu verbessern, kann man die Einträge der Matrix mittels der Rechenregel e A t = ( e A t / m ) m {\displaystyle e^{At}=(e^{At/m})^{m}} elegant skalieren ("Scaling & Squaring"-Methode). Ist die (natürliche-) Matrixnorm A t {\displaystyle \|At\|} nicht zu groß, kann die Berechnung der Reihe auch über die Padé-Approximation erfolgen. Die Scaling & Squaring-Methode hat einen Aufwand der Größenordnung O ( n 3 ) {\displaystyle {\mathcal {O}}(n^{3})} (im Wesentlichen Matrizenmultiplikationen). Der Faktor von n 3 {\displaystyle n^{3}} ist abhängig von den Skalierungsparametern sowie insbesondere von der Matrixnorm.

Nilpotenter Fall

Eine Matrix N {\displaystyle N} ist nilpotent, wenn N q = 0 {\displaystyle N^{q}=0} für eine geeignete natürliche Zahl q {\displaystyle q} gilt. In diesem Fall bricht die Reihenentwicklung von e N {\displaystyle e^{N}} nach einer endlichen Anzahl von Termen ab und das Matrixexponential kann als

exp ( N ) = E + N + 1 2 N 2 + 1 6 N 3 + + 1 ( q 1 ) ! N q 1 {\displaystyle \exp(N)=E+N+{\frac {1}{2}}N^{2}+{\frac {1}{6}}N^{3}+\cdots +{\frac {1}{(q-1)!}}N^{q-1}}

berechnet werden.

Diagonalisierung der Matrix

Ist die Matrix D {\displaystyle D} eine Diagonalmatrix

D = ( a 1 0 0 0 a 2 0 0 0 a n ) {\displaystyle D={\begin{pmatrix}a_{1}&0&\ldots &0\\0&a_{2}&\ldots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\ldots &a_{n}\end{pmatrix}}} ,

dann kann man ihr Exponential ermitteln, indem man die gewöhnliche Exponentialfunktion auf jeden Eintrag der Hauptdiagonalen anwendet:

e D = ( e a 1 0 0 0 e a 2 0 0 0 e a n ) {\displaystyle e^{D}={\begin{pmatrix}e^{a_{1}}&0&\ldots &0\\0&e^{a_{2}}&\ldots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\ldots &e^{a_{n}}\end{pmatrix}}} .

Damit kann man auch das Exponential einer diagonalisierbaren Matrix A {\displaystyle A} berechnen. Zur Diagonalisierung

A = V D V 1 {\displaystyle A=VDV^{-1}}

mit einer Diagonalmatrix D {\displaystyle D} werden die zugehörige Eigenbasis V {\displaystyle V} sowie die n {\displaystyle n} Eigenwerte λ 1 , , λ n {\displaystyle \lambda _{1},\ldots ,\lambda _{n}} der Matrix A {\displaystyle A} bestimmt. Für die Matrix-Exponentialfunktion folgt daraus

exp ( A t ) = V e D t V 1 = V diag ( e λ 1 t , e λ 2 t , , e λ n t ) V 1 {\displaystyle \exp(At)=Ve^{Dt}\,V^{-1}=V\operatorname {diag} (e^{\lambda _{1}t},e^{\lambda _{2}t},\dotsc ,e^{\lambda _{n}t})\,V^{-1}}

mit der skalaren Exponentialfunktion t e λ i t {\displaystyle t\mapsto e^{\lambda _{i}t}} . Der Beweis folgt direkt aus der Taylor-Entwicklung der Exponentialfunktion.

Die Diagonalisierung der Matrix gehört, wie auch der QR-Algorithmus oder die Jordansche Normalform, zu den Matrix-Zerlegungsmethoden zur Berechnung der Exponentialfunktion. Die Diagonalisierung und der QR-Algorithmus haben dabei jeweils einen Aufwand der Größenordnung O ( n 3 ) {\displaystyle {\mathcal {O}}(n^{3})} und sind aber, im Vergleich zu Methoden auf Basis der Taylor-Entwicklung, unabhängig von A t {\displaystyle \|At\|} . Der wesentliche Berechnungsaufwand (hier: Bestimmung der Eigenwerte und Eigenvektoren) ist zudem unabhängig von der Variablen t {\displaystyle t} . Zur Lösung beispielsweise von linearen Differentialgleichungen für mehrere Zeitschritte t {\displaystyle t} muss dieser Arbeitsaufwand also nur einmalig erbracht werden. Die Berechnung der weiteren Zeitschritte erfolgt bei der Methode Diagonalisierung durch einfache Matrizenmultiplikation und bei dem QR-Algorithmus liegt der Aufwand in der Größenordnung von nur noch O ( n 2 ) {\displaystyle {\mathcal {O}}(n^{2})} .

Beispiel 1

Es soll das Matrixexponential e t A {\displaystyle e^{tA}} für die folgende Matrix berechnet werden:

A = ( 0 1 a 2 , 1 a 2 , 2 ) {\displaystyle A={\begin{pmatrix}0&1\\a_{2,1}&a_{2,2}\end{pmatrix}}} .

Hierzu wird die ( 2 × 2 ) {\displaystyle (2\times 2)} -Matrix A {\displaystyle A} zunächst mittels der Eigenwerte und den Eigenvektoren diagonalisiert. Mit der Diagonalmatrix D {\displaystyle D} und der Eigenbasis V {\displaystyle V} folgt:

exp ( A t ) = V e D t V 1 = V ( e λ 1 t 0 0 e λ 2 t ) V 1 {\displaystyle \exp(At)=Ve^{Dt}\,V^{-1}=V{\begin{pmatrix}e^{\lambda _{1}t}&0\\0&e^{\lambda _{2}t}\end{pmatrix}}V^{-1}} .

Die Eigenwerte werden aus dem charakteristischen Polynom bestimmt zu

λ 1 , 2 = a 2 , 2 2 ± ( a 2 , 2 2 ) 2 + a 2 , 1 {\displaystyle \lambda _{1,2}={\frac {a_{2,2}}{2}}\pm {\sqrt {\left({\frac {a_{2,2}}{2}}\right)^{2}+a_{2,1}}}} .

Für die beiden Eigenvektoren bzw. die Eigenbasis gilt:

V = ( 1 1 λ 1 λ 2 )       {\displaystyle V={\begin{pmatrix}1&1\\\lambda _{1}&\lambda _{2}\end{pmatrix}}~~~} sowie     V 1 = 1 λ 2 λ 1 ( λ 2 1 λ 1 1 ) {\displaystyle ~~V^{-1}={\frac {1}{\lambda _{2}-\lambda _{1}}}{\begin{pmatrix}\lambda _{2}&-1\\-\lambda _{1}&1\end{pmatrix}}}

Einsetzen für die Matrix-Exponentialfunktion liefert schließlich

exp ( A t ) = 1 λ 2 λ 1 ( λ 2 e λ 1 t λ 1 e λ 2 t e λ 2 t e λ 1 t λ 1 λ 2 ( e λ 1 t e λ 2 t ) λ 2 e λ 2 t λ 1 e λ 1 t ) {\displaystyle \exp(At)={\frac {1}{\lambda _{2}-\lambda _{1}}}{\begin{pmatrix}\lambda _{2}e^{\lambda _{1}t}-\lambda _{1}e^{\lambda _{2}t}&e^{\lambda _{2}t}-e^{\lambda _{1}t}\\\lambda _{1}\lambda _{2}(e^{\lambda _{1}t}-e^{\lambda _{2}t})&\lambda _{2}e^{\lambda _{2}t}-\lambda _{1}e^{\lambda _{1}t}\end{pmatrix}}}

als geschlossene analytische Lösung.[2]

Beispiel 2

Die Matrix-Exponentialfunktion

exp ( A t ) = exp [ ( 3 4 4 5 ) t ] = ( ( 1 + 4 t ) e t 4 t e t 4 t e t ( 1 4 t ) e t ) {\displaystyle \exp(At)=\exp \left[{\begin{pmatrix}3&-4\\4&-5\end{pmatrix}}t\right]={\begin{pmatrix}(1+4t)e^{-t}&-4te^{-t}\\4te^{-t}&(1-4t)e^{-t}\end{pmatrix}}}

kann explizit berechnet werden, jedoch ist die Matrix A {\displaystyle A} selbst nicht diagonalisierbar. Die Matrix besitzt die beiden Eigenwerte λ 1 , 2 = 1 {\displaystyle \lambda _{1,2}=-1} . Obwohl also der Eigenwert die algebraische Vielfachheit 2 hat, existiert nur ein linear unabhängiger Eigenvektor. Die Basis aus den Eigenvektoren

V = ( a 2 , 1 a 2 , 1 λ 1 a 1 , 1 λ 2 a 1 , 1 ) = ( 4 4 4 4 ) {\displaystyle V={\begin{pmatrix}a_{2,1}&a_{2,1}\\\lambda _{1}-a_{1,1}&\lambda _{2}-a_{1,1}\end{pmatrix}}={\begin{pmatrix}-4&-4\\-4&-4\end{pmatrix}}}

ist nicht invertierbar. Die Diskriminante des charakteristischen Polynoms

D 2 = ( a 1 , 1 a 2 , 2 2 ) 2 + a 1 , 2 a 2 , 1 = ( 3 ( 5 ) 2 ) 2 16 {\displaystyle D_{2}=\left({\frac {a_{1,1}-a_{2,2}}{2}}\right)^{2}+a_{1,2}\,a_{2,1}=\left({\frac {3-(-5)}{2}}\right)^{2}-16}

wird dabei immer null. In diesem Fall, also wenn gleiche Eigenwerte bzw. Eigenvektoren vorkommen, kann formell die Jordansche Normalform zur Transformation verwendet werden.

Splitting-Methode

Zerfällt das Minimalpolynom (bzw. das charakteristische Polynom) der Matrix X {\displaystyle X} in Linearfaktoren (über C {\displaystyle \mathbb {C} } ist das stets der Fall), dann kann X {\displaystyle X} eindeutig in eine Summe

X = A + N {\displaystyle X=A+N}

zerlegt werden, wobei

  • A {\displaystyle A} diagonalisierbar ist,
  • N {\displaystyle N} nilpotent ist und
  • A {\displaystyle A} mit N {\displaystyle N} kommutiert (d. h. A N = N A {\displaystyle AN=NA} ).

Damit kann man das Exponential von X {\displaystyle X} berechnen, indem man es auf die vorgenannten Fälle reduziert: e X = e A + N = e A e N {\displaystyle e^{X}=e^{A+N}=e^{A}e^{N}} . Im letzten Schritt benötigt man die Kommutativität von A {\displaystyle A} und N {\displaystyle N} .

Verwendung der jordanschen Normalform

Eine weitere Methode ist die Verwendung der jordanschen Normalform von X {\displaystyle X} , wobei auch die Splitting-Methode zum Einsatz kommt. Sei J {\displaystyle J} die jordansche Normalform von X {\displaystyle X} mit der Basiswechselmatrix P {\displaystyle P} , dann gilt

e X = P e J P 1 . {\displaystyle e^{X}=Pe^{J}P^{-1}.}

Wegen

J = J a 1 ( λ 1 ) J a 2 ( λ 2 ) J a n ( λ n ) {\displaystyle J=J_{a_{1}}(\lambda _{1})\oplus J_{a_{2}}(\lambda _{2})\oplus \cdots \oplus J_{a_{n}}(\lambda _{n})}

gilt

e J = exp ( J a 1 ( λ 1 ) J a 2 ( λ 2 ) J a n ( λ n ) ) = exp ( J a 1 ( λ 1 ) ) exp ( J a 2 ( λ 2 ) ) exp ( J a k ( λ k ) ) . {\displaystyle {\begin{aligned}e^{J}&=\exp {\big (}J_{a_{1}}(\lambda _{1})\oplus J_{a_{2}}(\lambda _{2})\oplus \cdots \oplus J_{a_{n}}(\lambda _{n}){\big )}\\&=\exp {\big (}J_{a_{1}}(\lambda _{1}){\big )}\oplus \exp {\big (}J_{a_{2}}(\lambda _{2}){\big )}\oplus \cdots \oplus \exp {\big (}J_{a_{k}}(\lambda _{k}){\big )}.\end{aligned}}}

Daher muss man nur das Exponential eines Jordan-Blocks kennen. Nun ist jeder Jordan-Block von der Form

J a ( λ ) = λ E + N , {\displaystyle J_{a}(\lambda )=\lambda \,E+N,}

wobei N {\displaystyle N} eine spezielle nilpotente Matrix ist. Das Exponential des Jordan-Blocks ist also

e λ E + N = e λ e N . {\displaystyle e^{\lambda E+N}=e^{\lambda }e^{N}.}

Beispiel

Man betrachte die Matrix

B = ( 21 17 6 5 1 6 4 4 16 ) {\displaystyle B={\begin{pmatrix}21&17&6\\-5&-1&-6\\4&4&16\end{pmatrix}}} ,

welche die jordansche Normalform

J = P 1 B P = ( 4 0 0 0 16 1 0 0 16 ) {\displaystyle J=P^{-1}BP={\begin{pmatrix}4&0&0\\0&16&1\\0&0&16\end{pmatrix}}}

mit der Übergangsmatrix

P = ( 1 1 5 8 1 1 1 8 0 2 0 ) {\displaystyle P={\begin{pmatrix}-1&1&{\tfrac {5}{8}}\\1&-1&-{\tfrac {1}{8}}\\0&2&0\end{pmatrix}}}

hat. Dann gelten

J = J 1 ( 4 ) J 2 ( 16 ) {\displaystyle J=J_{1}(4)\oplus J_{2}(16)}

und

e B = P e J P 1 = P ( e J 2 ( 16 ) e J 1 ( 4 ) ) P 1 {\displaystyle e^{B}=Pe^{J}P^{-1}=P(e^{J_{2}(16)}\oplus e^{J_{1}(4)})P^{-1}} .

Somit ist

exp [ ( 16 0 0 16 ) + ( 0 1 0 0 ) ] = e 16 E [ ( 1 0 0 1 ) + ( 0 1 0 0 ) + 1 2 ! ( 0 0 0 0 ) + ] = ( e 16 e 16 0 e 16 ) {\displaystyle \exp \left[{\begin{pmatrix}16&0\\0&16\end{pmatrix}}+{\begin{pmatrix}0&1\\0&0\end{pmatrix}}\right]=e^{16}E\cdot \left[{\begin{pmatrix}1&0\\0&1\end{pmatrix}}+{\begin{pmatrix}0&1\\0&0\end{pmatrix}}+{1 \over 2!}{\begin{pmatrix}0&0\\0&0\end{pmatrix}}+\cdots \right]={\begin{pmatrix}e^{16}&e^{16}\\0&e^{16}\end{pmatrix}}} .

Das Exponential einer 1×1-Matrix ist trivial. Mit e J 1 ( 4 ) = e 4 {\displaystyle e^{J_{1}(4)}=e^{4}} folgt

exp ( B ) = P exp ( J ) P 1 = P ( e 4 0 0 0 e 16 e 16 0 0 e 16 ) P 1 = 1 4 ( 13 e 16 e 4 13 e 16 5 e 4 2 e 16 2 e 4 9 e 16 + e 4 9 e 16 + 5 e 4 2 e 16 + 2 e 4 16 e 16 16 e 16 4 e 16 ) . {\displaystyle {\begin{aligned}\exp(B)&=P\exp(J)P^{-1}=P{\begin{pmatrix}e^{4}&0&0\\0&e^{16}&e^{16}\\0&0&e^{16}\end{pmatrix}}P^{-1}\\[6pt]&={1 \over 4}{\begin{pmatrix}13e^{16}-e^{4}&13e^{16}-5e^{4}&2e^{16}-2e^{4}\\-9e^{16}+e^{4}&-9e^{16}+5e^{4}&-2e^{16}+2e^{4}\\16e^{16}&16e^{16}&4e^{16}\end{pmatrix}}.\end{aligned}}}

Die jordansche Normalform und daraus das Exponential zu berechnen, ist auf diesem Weg sehr mühsam. Meist reicht es, die Wirkung der Exponential-Matrix auf einige Vektoren zu berechnen.

Numerische Berechnung

Die Jordan-Normalform-Zerlegung ist numerisch instabil, da aufgrund der Gleitkommaarithmetik Rundungsfehler in die Eigenwerte eingeführt werden, die eine Gruppierung der Eigenwerte in Gruppen identischer Eigenwerte unmöglich macht. Daher werden in der Numerik andere Techniken zur Berechnung des Matrixexponentials verwendet. Zu den effektivsten verfügbaren Algorithmen gehören die Padé-Approximation mit Skalieren und Quadrieren (s. Berechnung mittels Taylorreihe) oder die Matrix-Zerlegungsmethoden wie die Diagonalisierung der Matrix. Bei großen Matrizen kann der Rechenaufwand auch reduziert werden, indem Krylowräume verwendet werden, deren Basisvektoren mit dem Arnoldi-Verfahren orthogonalisiert worden sind.

Explizite Formeln

Mittels der Diagonalisierung über die Eigenwerte und Eigenvektoren ist die Darstellung der Matrix-Exponentialfunktion einer 2 × 2 {\displaystyle 2\times 2} -Matrix auch als explizite Formel möglich. Insbesondere der Umweg über die teils komplexen Eigenwerte ist damit nicht mehr notwendig:[3]

exp ( A t ) = ( a 1 , 1 a 2 , 2 2 f ( t ) + f ( t ) a 1 , 2 f ( t ) a 2 , 1 f ( t ) a 2 , 2 a 1 , 1 2 f ( t ) + f ( t ) ) e a 1 , 1 + a 2 , 2 2 t {\displaystyle \exp(At)={\begin{pmatrix}{\frac {a_{1,1}-a_{2,2}}{2}}f(t)+f'(t)&a_{1,2}f(t)\\a_{2,1}f(t)&{\frac {a_{2,2}-a_{1,1}}{2}}f(t)+f'(t)\end{pmatrix}}e^{{\frac {a_{1,1}+a_{2,2}}{2}}t}}

Für die Hilfsfunktion f ( t ) {\displaystyle f(t)} gilt in Abhängigkeit der reellen, komplexen, oder gleichen Eigenwerte (anhand der Diskriminante D {\displaystyle D} des charakteristischen Polynoms):

D = ( a 1 , 1 a 2 , 2 2 ) 2 + a 1 , 2 a 2 , 1 {\displaystyle D=\left({\frac {a_{1,1}-a_{2,2}}{2}}\right)^{2}+a_{1,2}a_{2,1}} f ( t ) {\displaystyle f(t)} f ( t ) {\displaystyle f'(t)}
> 0 {\displaystyle >0} sinh ( D t ) D {\displaystyle {\frac {\sinh \left({\sqrt {D}}t\right)}{\sqrt {D}}}} cosh ( D t ) {\displaystyle \cosh \left({\sqrt {D}}t\right)}
< 0 {\displaystyle <0} sin ( | D | t ) | D | {\displaystyle {\frac {\sin \left({\sqrt {|D|}}t\right)}{\sqrt {|D|}}}} cos ( | D | t ) {\displaystyle \cos \left({\sqrt {|D|}}t\right)}
= 0 {\displaystyle =0} t {\displaystyle t} 1 {\displaystyle 1}

Putzer-Algorithmus

Hauptartikel: Putzer-Algorithmus

Eine weitere Möglichkeit, das Matrixexpontial zu berechnen, ist der Putzer-Algorithmus. Dabei definiert man bei gegebener Matrix A C n × n {\displaystyle A\in \mathbb {C} ^{n\times n}} und t R {\displaystyle t\in \mathbb {R} } rekursiv stetig-differenzierbare Funktion p k {\displaystyle p_{k}} und Matrizen M k {\displaystyle M_{k}} , so dass gilt:

exp ( A t ) = k = 1 n p k ( t ) M k 1 {\displaystyle \exp(At)=\sum _{k=1}^{n}p_{k}(t)M_{k-1}}

Die Lösung des Matrixexponentials einer ( n × n ) {\displaystyle (n\times n)} -Matrix wird hierbei als Polynom erhalten. Die Berechnung hat dabei einen Aufwand der Größenordnung O ( n 4 ) {\displaystyle {\mathcal {O}}(n^{4})} (Berechnung der Eigenwerte sowie insbesondere n {\displaystyle n} Matrizenmultiplikationen) und eignet sich daher eher nur für kleine Matrizen.

Anwendungen

Homogene lineare Differentialgleichungen

Das Matrixexponential kann für die Lösung eines Systems von linearen Differentialgleichungen verwendet werden. Eine Differentialgleichung der Form

y = C y {\displaystyle y'=Cy}

hat die Lösung e C t {\displaystyle e^{Ct}} . Wenn man den Vektor

y ( t ) = ( y 1 ( t ) y n ( t ) ) {\displaystyle \mathbf {y} (t)={\begin{pmatrix}y_{1}(t)\\\vdots \\y_{n}(t)\end{pmatrix}}}

betrachtet, dann kann man ein System von gekoppelten linearen Differentialgleichungen betrachten als

y ( t ) = A y ( t ) + b {\displaystyle \mathbf {y} '(t)=A\mathbf {y} (t)+\mathbf {b} } .

Wenn man den Integrationsfaktor e t A {\displaystyle e^{-tA}} ansetzt und auf beiden Seiten multipliziert, erhält man

e t A y ( t ) e t A A y = e t A b {\displaystyle e^{-tA}\mathbf {y} '(t)-e^{-tA}A\mathbf {y} =e^{-tA}\mathbf {b} } ,

also

d d t ( e t A y ) = e t A b {\displaystyle {\frac {\mathrm {d} }{\mathrm {d} t}}(e^{-tA}\mathbf {y} )=e^{-tA}\mathbf {b} } .

Wenn man e t A {\displaystyle e^{tA}} berechnet, erhält man eine Lösung des Differentialgleichungssystems.

Beispiel (homogen)

Gegeben sei das folgende Differentialgleichungssystem

y 1 = 3 y 1 y 2 , y 2 = y 1 + y 2 . {\displaystyle {\begin{aligned}y_{1}'&=3y_{1}-y_{2},\\y_{2}'&=y_{1}+y_{2}.\end{aligned}}}

Es lässt sich schreiben als y ( t ) = A y ( t ) {\displaystyle y'(t)=Ay(t)} mit der Koeffizientenmatrix

A = ( 3 1 1 1 ) {\displaystyle A={\begin{pmatrix}3&-1\\1&1\end{pmatrix}}} .

Damit ergibt sich das zugehörige Matrixexponential zu

e t A = e 2 t ( 1 + t t t 1 t ) {\displaystyle e^{tA}=e^{2t}{\begin{pmatrix}1+t&-t\\t&1-t\end{pmatrix}}} .

Als allgemeine Lösung des Differentialgleichungssystems erhält man somit

( y 1 ( t ) y 2 ( t ) ) = C 1 e 2 t ( 1 + t t ) + C 2 e 2 t ( t 1 t ) {\displaystyle {\begin{pmatrix}y_{1}(t)\\y_{2}(t)\end{pmatrix}}=C_{1}e^{2t}{\begin{pmatrix}1+t\\t\end{pmatrix}}+C_{2}e^{2t}{\begin{pmatrix}-t\\1-t\end{pmatrix}}} .

Inhomogener Fall – Variation der Konstanten

Für den inhomogenen Fall kann man die Methode der Variation der Konstanten benutzen. Es wird eine Lösung der Form y p ( t ) = e t A z ( t ) {\displaystyle \mathbf {y} _{p}(t)=e^{tA}\mathbf {z} (t)} gesucht:

y p ( t ) = ( e t A ) z ( t ) + e t A z ( t ) = A e t A z ( t ) + e t A z ( t ) = A y p ( t ) + e t A z ( t ) {\displaystyle \mathbf {y} _{p}'(t)=(e^{tA})'\mathbf {z} (t)+e^{tA}\mathbf {z} '(t)=Ae^{tA}\mathbf {z} (t)+e^{tA}\mathbf {z} '(t)=A\mathbf {y} _{p}(t)+e^{tA}\mathbf {z} '(t)}

Um die Lösung y p {\displaystyle \mathbf {y} _{p}} zu ermitteln, fordert man

e t A z ( t ) = b ( t ) {\displaystyle e^{tA}\mathbf {z} '(t)=\mathbf {b} (t)} ,

also

z ( t ) = e t A b ( t ) {\displaystyle \mathbf {z} '(t)=e^{-tA}\mathbf {b} (t)}

und daher

z ( t ) = z ( t 0 ) + t 0 t e u A b ( u ) d u {\displaystyle \mathbf {z} (t)=\mathbf {z} (t_{0})+\int _{t_{0}}^{t}e^{-uA}\mathbf {b} (u)\,du} .

Damit ergibt sich

y p ( t ) = e t A z ( t 0 ) + e t A t 0 t e u A b ( u ) d u = e ( t t 0 ) A y 0 + t 0 t e ( t u ) A b ( u ) d u {\displaystyle \mathbf {y} _{p}(t)=e^{tA}\mathbf {z} (t_{0})+e^{tA}\int _{t_{0}}^{t}e^{-uA}\mathbf {b} (u)\,du=e^{(t-t_{0})A}\,\mathbf {y} _{0}+\int _{t_{0}}^{t}e^{(t-u)A}\mathbf {b} (u)\,du} ,

wobei die Anfangsbedingung y p ( t 0 ) = y 0 {\displaystyle \mathbf {y} _{p}(t_{0})=\mathbf {y} _{0}} angenommen worden ist.

Beispiel (inhomogen)

Gegeben sei das Differentialgleichungssystem

y 1 = 3 y 1 y 2 2 e t , y 2 = y 1 + y 2 e t . {\displaystyle {\begin{aligned}y_{1}'&=3y_{1}-y_{2}-2e^{t},\\y_{2}'&=y_{1}+y_{2}-e^{t}.\end{aligned}}}

Mit der Matrix A {\displaystyle A} von oben schreibt sich das System

y ( t ) = A y ( t ) + b ( t ) {\displaystyle y'(t)=Ay(t)+b(t)}

mit

b ( t ) = e t ( 2 1 ) {\displaystyle b(t)=e^{t}{\begin{pmatrix}-2\\-1\end{pmatrix}}} .

Die allgemeine Lösung der homogenen Gleichung wurde bereits oben berechnet. Die Summe aus homogenen und speziellen Lösungen ergibt die Lösung für das inhomogene Problem. Man muss jetzt nur noch eine spezielle Lösung y p ( t ) {\displaystyle y_{p}(t)} finden (über die Variation der Konstanten). Von der Gleichung oben erhält man:

y p ( t ) = e t A 0 t e u A b ( u ) d u {\displaystyle y_{p}(t)=e^{tA}\int _{0}^{t}e^{-uA}b(u)\,du} ,

also

y p ( t ) = e 2 t ( 1 + t t t 1 t ) 0 t e 2 u ( 1 u u u 1 + u ) ( 2 e u e u ) d u = ( e 2 t ( 1 + t ) + e t t e 2 t ) {\displaystyle y_{p}(t)=e^{2t}{\begin{pmatrix}1+t&-t\\t&1-t\end{pmatrix}}\int _{0}^{t}e^{-2u}{\begin{pmatrix}1-u&u\\-u&1+u\end{pmatrix}}{\begin{pmatrix}-2e^{u}\\-e^{u}\end{pmatrix}}\,du={\begin{pmatrix}-e^{2t}(1+t)+e^{t}\\-te^{2t}\end{pmatrix}}} .

Siehe auch

Literatur

  • Roger A. Horn, Charles R. Johnson: Topics in Matrix Analysis. Cambridge University Press, 1991, ISBN 0-521-46713-6 (englisch).
  • Cleve Moler, Charles F. Van Loan: Nineteen Dubious Ways to Compute the Exponential of a Matrix, Twenty-Five Years Later. In: SIAM Review. Band 45, Nr. 1, 2003, ISSN 1095-7200, S. 1–49, doi:10.1137/S00361445024180 (cornell.edu [PDF]). 
  • V. I. Arnolʹd: Gewöhnliche Differentialgleichungen. Springer-Verlag, Berlin/ New York 1980, ISBN 3-540-09216-1.

Einzelnachweise

  1. S. Blanes, F. Casas, J. A. Oteo, J. Ros: The Magnus expansion and some of its applications. (= Physics Reports. Band 470). Cornell University Library, 2009, OCLC 635162561.
  2. T. Möller: Symbolic mathematics-based simulation of cylinder spaces for regenerative gas cycles. In: Int J Energy Environ Eng. Springer Berlin/ Heidelberg, Feb. 2015. http://link.springer.com/article/10.1007/s40095-015-0163-3
  3. T. Möller: Simulation und konstruktive Optimierung der Wärmeübertrager regenerativer Gaskreisprozesse. Shaker Verlag Düren, Aug. 2022. http://www.shaker.de/shop/978-3-8440-8706-2