© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020
G. LudykRelativitätstheorie nur mit Matrizenhttps://doi.org/10.1007/978-3-662-60658-2_4

4. Vektoren- und Matrizenalgebra

Günter Ludyk1  
(1)
Physics and Electrical Engineering, University of Bremen, Bremen, Deutschland
 
 
Günter Ludyk

4.1 Vektoren und Matrizen

Soll die Geschwindigkeit eines Körpers angegeben werden, so gehört zu ihrer Kennzeichnung die Größe der Geschwindigkeit und ihre Richtung. Für die eindeutige Beschreibung einer solchen gerichteten Größe, Vektor genannt, werden im dreidimensionalen Raum drei Komponenten benötigt, die z. B. in einem Spaltenvektor zusammengefasst werden:
$$\begin{aligned} \varvec{v}=\left( \begin{array}{c}v_1\\ v_2\\ v_3\end{array}\right) . \end{aligned}$$
(4.1)
Eine zweite Möglichkeit ist die Darstellung durch einen transponierten Vektor
$$\begin{aligned} \varvec{v}^{^\intercal }=\left( \begin{array}{ccc}v_1&v_2&v_3\end{array}\right) , \end{aligned}$$
(4.2)
einen Zeilenvektor.
Auf einem anderen Weg erhält man den Begriff des Vektors, wenn man das folgende rein mathematische Problem betrachtet. Gegeben seien drei gekoppelte Gleichungen mit den vier Unbekannten $$x_1,\;x_2,\;x_3$$ und $$x_4$$:
$$\begin{aligned} a_{11}x_1+a_{12}x_2+a_{13}x_3+a_{14}x_4=y_1, \end{aligned}$$
(4.3)
$$\begin{aligned} a_{21}x_1+a_{22}x_2+a_{23}x_3+a_{24}x_4=y_2, \end{aligned}$$
(4.4)
$$\begin{aligned} a_{31}x_1+a_{32}x_2+a_{33}x_3+a_{34}x_4=y_3. \end{aligned}$$
(4.5)
Die vier Unbekannten können zu dem Vektor
$$\begin{aligned} \varvec{x}{\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{c}x_1\\ x_2\\ x_3\\ x_4\end{array}\right) , \end{aligned}$$
(4.6)
die Größen $$y_1,\;y_2$$ und $$y_3$$ zu dem Vektor
$$\begin{aligned} \varvec{y}{\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{c}y_1\\ y_2\\ y_3\end{array}\right) \end{aligned}$$
(4.7)
und die Koeffizienten $$a_{ij}$$ zu der Matrix
$$\begin{aligned} \varvec{A}{\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{cccc} a_{11}&{}a_{12}&{}a_{13}&{}a_{14}\\ a_{21}&{}a_{22}&{}a_{23}&{}a_{24}\\ a_{31}&{}a_{32}&{}a_{33}&{}a_{34}\end{array}\right) \end{aligned}$$
(4.8)
zusammengefasst werden. Mit den beiden Vektoren $$\varvec{x}$$ und $$\varvec{y}$$ und der Matrix $$\varvec{A }$$ kann das Gleichungssystem kompakt auch so geschrieben werden
$$\begin{aligned} \varvec{A }\varvec{x} =\varvec{y}. \end{aligned}$$
(4.9)
Werden die beiden Gleichungssysteme
$$\begin{aligned} a_{11}x_1+a_{12}x_2=y_1, \end{aligned}$$
(4.10)
$$\begin{aligned} a_{21}x_1+a_{22}x_2=y_2 \end{aligned}$$
(4.11)
und
$$\begin{aligned} a_{11}z_1+a_{12}z_2=v_1, \end{aligned}$$
(4.12)
$$\begin{aligned} a_{21}z_1+a_{22}z_2=v_2 \end{aligned}$$
(4.13)
addiert, erhält man
$$\begin{aligned} a_{11}(x_1+z_1)+a_{12}(x_2+z_2)=(y_1+v_1), \end{aligned}$$
(4.14)
$$\begin{aligned} a_{21}(x_1+z_1)+a_{22}(x_2+z_2)=(y_2+v_2). \end{aligned}$$
(4.15)
Mit Hilfe von Vektoren und Matrizen können die beiden Gleichungssysteme auch folgendermaßen geschrieben werden
$$\begin{aligned} \varvec{A }\varvec{x} =\varvec{y}\;\;\mathrm{und}\;\;\varvec{A }\varvec{z}=\varvec{v}. \end{aligned}$$
(4.16)
Die Addition der beiden Gleichungen in (4.16) ergibt formal
$$\begin{aligned} \varvec{A }\varvec{x} +\varvec{Az}=\varvec{A }(\varvec{x} +\varvec{z})=\varvec{y}+\varvec{v}. \end{aligned}$$
(4.17)
Ein Vergleich von (4.17) mit (4.14) und (4.15) legt die folgende Definition der Addition von Vektoren nahe:
Definition
$$\begin{aligned} \varvec{y}+\varvec{v}=\left( \begin{array}{c}y_1\\ y_2\\ \vdots \\ y_n\end{array}\right) + \left( \begin{array}{c}v_1\\ v_2\\ \vdots \\ v_n\end{array}\right) {\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{c}y_1+v_1\\ y_2+v_2\\ \vdots \\ y_n+v_n\end{array}\right) . \end{aligned}$$
(4.18)

Entsprechend wird die Multiplikation eines Vektors mit einer reellen oder komplexen Zahl c definiert durch

Definition
$$\begin{aligned} c\cdot \varvec{x} {\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{c}c\cdot x_1\\ \vdots \\ c\cdot x_n\end{array}\right) . \end{aligned}$$
(4.19)

4.2 Matrizen

4.2.1 Matrixtypen

Definition

Wenn eine Matrix $$\varvec{A }$$ n Zeilen und m Spalten hat, wird sie $$n\times m$$-Matrix genannt.

Definition

Die transponierte Matrix einer Matrix $$\varvec{A }$$ wird mit $$\varvec{A }^{^\intercal }$$ bezeichnet. Sie entsteht, wenn Zeilen und Spalten vertauscht werden.

So hat die zur Matrix (4.8) transponierte Matrix die Form
$$\begin{aligned} \varvec{A }^{^\intercal }=\left( \begin{array}{ccc} a_{11}&{}a_{21}&{}a_{31}\\ a_{12}&{}a_{22}&{}a_{32}\\ a_{13}&{}a_{23}&{}a_{33}\\ a_{14}&{}a_{24}&{}a_{34}\end{array}\right) . \end{aligned}$$
(4.20)
Ist $$\varvec{A }$$ eine $$n\times m$$-Matrix, dann ist $$\varvec{A }^{^\intercal }$$ eine $$m\times n$$-Matrix.

Bei einer quadratischen Matrix ist $$n=m$$ und bei einer $$n\times n$$-Diagonalmatrix sind alle Elemente $$a_{ij},\;i\not =j$$ außerhalb der Hauptdiagonalen gleich null. Die Einheitsmatrix $$\varvec{I}$$ ist eine Diagonalmatrix, bei der sämtliche Elemente in der Hauptdiagonalen gleich eins sind. Eine $$r\times r$$-Einheitsmatrix wird auch mit $$\varvec{I}_r$$ bezeichnet. Ist die transponierte Matrix $$\varvec{A }^{^\intercal }$$ gleich der Matrix $$\varvec{A }$$, heißt die Matrix symmetrisch. In diesem Fall ist $$a_{ij}=a_{ji}$$.

4.2.2 Matrizenoperationen

Werden die beiden Gleichungssysteme
$$\begin{aligned}a_{11}x_1+a_{12}x_2+\cdots +a_{1m}x_m= & {} y_1,\\ a_{21}x_1+a_{22}x_2+\cdots +a_{2m}x_m= & {} y_2,\\&\vdots&\\ a_{n1}x_1+a_{n2}x_2+\cdots +a_{nm}x_m= & {} y_n \end{aligned}$$
und
$$\begin{aligned}b_{11}x_1+b_{12}x_2+\cdots +b_{1m}x_m= & {} z_1,\\ b_{21}x_1+b_{22}x_2+\cdots +b_{2m}x_m= & {} z_2,\\&\vdots&\\ b_{n1}x_1+b_{n2}x_2+\cdots +b_{nm}x_m= & {} z_n \end{aligned}$$
addiert, erhält man
$$\begin{aligned}(a_{11}+b_{11})x_1+(a_{12}+b_{12})x_2+\cdots +(a_{1m}+b_{1m})x_m= & {} (y_1+z_1),\\ (a_{21}+b_{21})x_1+(a_{22}+b_{22})x_2+\cdots +(a_{2m}+b_{2m})x_m= & {} (y_2+z_2),\\&\vdots&\\ (a_{n1}+b_{n1})x_1+(a_{n2}+b_{n2})x_2+\cdots +(a_{nm}+b_{nm})x_m= & {} (y_n+z_n) \end{aligned}$$
oder mit
$$\begin{aligned} \varvec{A }\varvec{x} =\varvec{y}\;\;\mathrm{und}\;\;\varvec{B }\varvec{x} =\varvec{z} \end{aligned}$$
auch symbolisch geschrieben
$$\begin{aligned} (\varvec{A }+\varvec{B })\varvec{x} =\varvec{y}+\varvec{z}. \end{aligned}$$
(4.21)
Ein Vergleich der letzten Gleichungen legt die folgende Definition nahe:
Definition
Die Summe zweier $$n\times m$$-Matrizen $$\varvec{A }$$ und $$\varvec{B }$$ wird definiert durch
$$\begin{aligned} \varvec{A }+\varvec{B }&=\left( \begin{array}{ccc}a_{11}&{}\cdots &{}a_{1m}\\ \vdots &{}&{}\vdots \\ a_{n1}&{}\cdots &{}a_{nm}\end{array}\right) +\left( \begin{array}{ccc}b_{11}&{}\cdots &{}b_{1m}\\ \vdots &{}&{}\vdots \\ b_{n1}&{}\cdots &{}b_{nm}\end{array}\right) \nonumber \\&=\left( \begin{array}{ccc}(a_{11}+b_{11})&{}\cdots &{}(a_{1m}+b_{1m})\\ \vdots &{}&{}\vdots \\ (a_{n1}+b_{n1})&{}\cdots &{}(a_{nm}+b_{nm})\end{array}\right) . \end{aligned}$$
(4.22)

Die Summe zweier Matrizen kann nur dann gebildet werden, wenn beide Matrizen gleich viele Zeilen und gleich viele Spalten haben.

Wenn die Beziehungen
$$\begin{aligned} \varvec{y}=\varvec{A }\varvec{x} \;\;\mathrm{und}\;\;\varvec{x} =\varvec{B }\varvec{z} \end{aligned}$$
(4.23)
gegeben sind, welcher Zusammenhang besteht dann zwischen den beiden Vektoren $$\varvec{y}$$ und $$\varvec{z}$$? Es sei
$$\begin{aligned}a_{11}x_1+a_{12}x_2+\cdots +a_{1m}x_m= & {} y_1,\\ a_{21}x_1+a_{22}x_2+\cdots +a_{2m}x_m= & {} y_2,\\&\vdots&\\ a_{n1}x_1+a_{n2}x_2+\cdots +a_{nm}x_m= & {} y_n \end{aligned}$$
und
$$\begin{aligned}b_{11}z_1+b_{12}z_2+\cdots +b_{1\ell }z_{\ell }= & {} x_1,\\ b_{21}z_1+b_{22}z_2+\cdots +b_{2\ell }z_{\ell }= & {} x_2,\\&\vdots&\\ b_{m1}z_1+b_{m2}z_2+\cdots +b_{m\ell }z_{\ell }= & {} x_m, \end{aligned}$$
dann erhält man durch Einsetzen der $$x_i$$ aus dem letzten Gleichungssystem in das vorhergehende
$$\begin{aligned}a_{11}(b_{11}z_1+\cdots +b_{1\ell }z_{\ell })+\cdots +a_{1m}(b_{m1}z_1+\cdots +b_{m\ell }z_{\ell })= & {} y_1,\\ a_{21}(b_{11}z_1+\cdots +b_{1\ell }z_{\ell })+\cdots +a_{2m}(b_{m1}z_1+\cdots +b_{m\ell }z_{\ell })= & {} y_2,\\&\vdots&\\ a_{n1}(b_{11}z_1+\cdots +b_{1\ell }z_{\ell })+\cdots +a_{nm}(b_{m1}z_1+\cdots +b_{m\ell }z_{\ell })= & {} y_n. \end{aligned}$$
Fasst man die Terme mit $$z_i$$ zusammen, erhält man
$$\begin{aligned}(a_{11}b_{11}+\cdots +a_{1m}b_{m1})z_{1}+\cdots +(a_{11}b_{1\ell }+\cdots +a_{1m}b_{m\ell })z_{\ell }= & {} y_1,\\ (a_{21}b_{11}+\cdots +a_{2m}b_{m1})z_{1}+\cdots +(a_{21}b_{1\ell }+\cdots +a_{2m}b_{m\ell })z_{\ell }= & {} y_2,\\&\vdots&\\ (a_{n1}b_{11}+\cdots +a_{nm}b_{m1})z_{1}+\cdots +(a_{n1}b_{1\ell }+\cdots +a_{nm}b_{m\ell })z_{\ell }= & {} y_n. \end{aligned}$$
Setzt man andererseits formal den rechten Teil von (4.23) in den linken Teil ein, so erhält man
$$\begin{aligned} \varvec{y}=\varvec{A }\varvec{B }\varvec{z}{\mathop {=}\limits ^\mathrm{def}}\varvec{C}\varvec{z}. \end{aligned}$$
(4.24)
Definition
Das Produkt der $$n\times m$$-Matrix $$\varvec{A }$$ mit der $$m\times \ell $$-Matrix $$\varvec{B }$$ ist die $$n\times \ell $$-Matrix $$\varvec{C}$$ mit den Matrixelementen
$$\begin{aligned} c_{ij}={\displaystyle \sum _{k=1}^{m}}a_{ik}b_{kj}, \end{aligned}$$
(4.25)
für $$i=1,2,\dots , n$$ und $$j=1,2,\dots ,\ell $$.

Das Element $$c_{ij}$$ der Produktmatrix $$\varvec{C}$$ erhält man also, indem man die Elemente der i-ten Zeile der ersten Matrix $$\varvec{A }$$ mit den Elementen der j-ten Spalte der zweiten Matrix $$\varvec{B }$$ multipliziert und addiert. Daraus folgt, dass die Spaltenzahl der ersten Matrix gleich der Zeilenzahl der zweiten Matrix sein muss, damit die Matrizenmultiplikation überhaupt ausgeführt werden kann. Die Produktmatrix hat so viele Zeilen wie die erste Matrix und so viele Spalten wie die zweite Matrix. Daraus folgt, dass im Allgemeinen $$\varvec{A }\varvec{B }\not =\varvec{B }\varvec{A }$$ ist.

Zu einer weiteren Matrizenoperation kommt man durch das folgende Problem. In
$$\begin{aligned} \varvec{A }\varvec{x} =\varvec{b} \end{aligned}$$
(4.26)
seien die $$3\times 3$$-Matrix $$\varvec{A }$$ und der $$3\times 1$$-Vektor $$\varvec{b}$$ gegeben. Gesucht ist der $$3\times 1$$-Vektor $$\varvec{x}$$, der das Gleichungssystem (4.26) erfüllt. Ausgeschrieben lautet dieses lineare Gleichungssystem
$$\begin{aligned}a_{11}x_1+a_{12}x_2+a_{13}x_3= & {} b_1,\\ a_{21}x_1+a_{22}x_2+a_{23}x_3= & {} b_2,\\ a_{31}x_1+a_{32}x_2+a_{33}x_3= & {} b_3. \end{aligned}$$
Bezeichnet man die Determinante der quadratischen Matrix $$\varvec{A }$$ mit $$\det (\varvec{A })$$, erhält man mit Hilfe der Cramerschen Regel die Lösungen
$$\begin{aligned} x_1=\frac{1}{\det (\varvec{A })}\det \left( \begin{array}{ccc} b_1&{}a_{12}&{}a_{13}\\ b_2&{}a_{22}&{}a_{23}\\ b_3&{}a_{32}&{}a_{33}\end{array}\right) , \end{aligned}$$
(4.27)
$$\begin{aligned} x_2=\frac{1}{\det (\varvec{A })}\det \left( \begin{array}{ccc} a_{11}&{}b_1&{}a_{13}\\ a_{21}&{}b_2&{}a_{23}\\ a_{31}&{}b_3&{}a_{33}\end{array}\right) , \end{aligned}$$
(4.28)
$$\begin{aligned} x_3=\frac{1}{\det (\varvec{A })}\det \left( \begin{array}{ccc} a_{11}&{}a_{12}&{}b_1\\ a_{21}&{}a_{22}&{}b_2\\ a_{31}&{}a_{32}&{}b_3\end{array}\right) . \end{aligned}$$
(4.29)
Entwickelt man in (4.27) die Determinante im Zähler nach der ersten Spalte, erhält man
$$\begin{aligned} x_1&=\frac{1}{\det (\varvec{A })}\left( b_1\det \left( \begin{array}{cc}a_{22}&{}a_{23}\\ a_{32}&{}a_{33}\end{array}\right) -b_2\det \left( \begin{array}{cc}a_{12}&{}a_{13}\\ a_{32}&{}a_{33}\end{array}\right) +b_3\det \left( \begin{array}{cc} a_{12}&{}a_{13}\\ a_{22}&{}a_{23}\end{array}\right) \right) \nonumber \\&=\frac{1}{\det (\varvec{A })}(b_1A_{11}+b_2A_{21}+b_3A_{31}) \nonumber \\&=\frac{1}{\det (\varvec{A })}\left( \begin{array}{ccc}A_{11}&A_{21}&A_{31}\end{array}\right) \varvec{b}. \end{aligned}$$
(4.30)
Entsprechend erhält man aus (4.28) und (4.29)
$$\begin{aligned} x_2=\frac{1}{\det (\varvec{A })}\left( \begin{array}{ccc}A_{12}&A_{22}&A_{32}\end{array}\right) \varvec{b} \end{aligned}$$
(4.31)
und
$$\begin{aligned} x_3=\frac{1}{\det (\varvec{A })}\left( \begin{array}{ccc}A_{13}&A_{23}&A_{33}\end{array}\right) \varvec{b}. \end{aligned}$$
(4.32)
Hierbei sind die Adjunkten $$A_{ij}$$ die Determinanten, die man erhält, wenn die i-te Zeile und die j-te Spalte der Matrix $$\varvec{A }$$ gestrichen, davon die Determinante berechnet und diese mit dem Faktor $$(-1)^{i+j}$$ multipliziert wird.
Definition
Die Adjunkten werden zusammengefasst in der adjungierten Matrix
$$\begin{aligned} \mathrm{adj}(\varvec{A })=\left( \begin{array}{ccc}A_{11}&{}A_{21}&{}A_{31}\\ A_{12}&{}A_{22}&{}A_{32}\\ A_{13}&{}A_{23}&{}A_{33}\end{array}\right) . \end{aligned}$$
(4.33)
Mit dieser Matrix können (4.30) bis (4.32) als eine Gleichung
$$\begin{aligned} \varvec{x} =\frac{\mathrm{adj}(\varvec{A })}{\det (\varvec{A })}\varvec{b} \end{aligned}$$
(4.34)
geschrieben werden. Die in (4.34) vor dem Vektor $$\varvec{b}$$ stehende Matrix heißt inverse Matrix.
Definition
Die zu einer quadratischen $$n\times n$$-Matrix $$\varvec{A }$$ gehörende $$n\times n$$-Matrix ($$\det (\varvec{A })\not =0$$)
$$\begin{aligned} \varvec{A }^{-1}{\mathop {=}\limits ^\mathrm{def}}\frac{\mathrm{adj}(\varvec{A })}{\det (\varvec{A })} \end{aligned}$$
(4.35)
heißt die zur Matrix $$\varvec{A }$$ inverse Matrix.
Für die inverse Matrix eines Matrizenprodukts erhält man
$$\begin{aligned} (\varvec{A }\varvec{B })^{-1}=\varvec{B }^{-1}\varvec{A }^{-1}, \end{aligned}$$
(4.36)
denn es ist
$$\begin{aligned} (\varvec{A }\varvec{B })(\varvec{B }^{-1}\varvec{A }^{-1})=\varvec{A }(\varvec{B }\varvec{B }^{-1})\varvec{A }^{-1}=\varvec{A }\varvec{A }^{-1}=\varvec{I}. \end{aligned}$$

4.2.3 Blockmatrizen

Oft weisen große Matrizen eine gewisse Struktur auf, die z. B. darin zum Ausdruck kommt, dass ein oder mehrere Untermatrizen Nullmatrizen sind. Andererseits kann man aus jeder Matrix durch senkrechte und waagerechte Linien eine Blockmatrix machen. Für ein Gleichungssystem erhält man dann z. B.
$$\begin{aligned} \left( \begin{array}{c|c|c|c} \varvec{A }_{11}&{}\varvec{A }_{12}&{}\cdots &{}\varvec{A }_{1n}\\ \hline \varvec{A }_{21}&{}\varvec{A }_{22}&{}\cdots &{}\varvec{A }_{2n}\\ \hline \vdots &{}\vdots &{}\cdots &{}\vdots \\ \hline \varvec{A }_{m1}&{}\varvec{A }_{m2}&{}\cdots &{}\varvec{A }_{mn}\end{array}\right) \left( \begin{array}{c}\varvec{x} _1\\ \hline \varvec{x} _2\\ \hline \vdots \\ \hline \varvec{x} _n\end{array}\right) =\left( \begin{array}{c}\varvec{y}_1\\ \hline \varvec{y}_2\\ \hline \vdots \\ \hline \varvec{y}_m\end{array}\right) . \end{aligned}$$
(4.37)
Die $$\varvec{A }_{ij}$$ heißen Untermatrizen und die Vektoren $$\varvec{x} _i$$ und $$\varvec{y}_i$$ Untervektoren. Für geeignet unterteilte Blockmatrizen gelten die gleichen Rechenregeln wie für Matrizen, z. B. erhält man für das Produkt von zwei Blockmatrizen
$$\begin{aligned} \left( \begin{array}{c|c}\varvec{A }_{11}&{}\varvec{A }_{12}\\ \hline \varvec{A }_{21}&{}\varvec{A }_{22}\end{array}\right) \left( \begin{array}{c|c}\varvec{B }_{11}&{}\varvec{B }_{12}\\ \hline \varvec{B }_{21}&{}\varvec{B }_{22}\end{array}\right) = \left( \begin{array}{c|c}\varvec{A }_{11}\varvec{B }_{11}+\varvec{A }_{12}\varvec{B }_{21}&{}\varvec{A }_{11}\varvec{B }_{12}+\varvec{A }_{12}\varvec{B }_{22}\\ \hline \varvec{A }_{21}\varvec{B }_{11}+\varvec{A }_{22}\varvec{B }_{21}&{}\varvec{A }_{21}\varvec{B }_{12}+\varvec{A }_{22}\varvec{B }_{22}\end{array}\right) . \end{aligned}$$
Insbesondere kann die Unterteilung von Matrizen in Blöcke bei der Berechnung der invertierten Matrix von Nutzen sein. Betrachtet man das Gleichungssystem
$$\begin{aligned} \varvec{A }\varvec{x} _1+\varvec{B }\varvec{x} _2=\varvec{y}_1, \end{aligned}$$
(4.38)
$$\begin{aligned} \varvec{C}\varvec{x} _1+\varvec{D}\varvec{x} _2=\varvec{y}_2 \end{aligned}$$
(4.39)
oder zusammengefasst zu
$$\begin{aligned} \left( \begin{array}{c|c}\varvec{A }&{}\varvec{B }\\ \hline \varvec{C}&{}\varvec{D}\end{array}\right) \left( \begin{array}{c}\varvec{x} _1\\ \hline \varvec{x} _2\end{array}\right) = \left( \begin{array}{c}\varvec{y}_1\\ \hline \varvec{y}_2\end{array}\right) , \end{aligned}$$
(4.40)
kann die Inverse der Matrix
$$\begin{aligned} \varvec{M}=\left( \begin{array}{c|c}\varvec{A }&{}\varvec{B }\\ \hline \varvec{C}&{}\varvec{D}\end{array}\right) \end{aligned}$$
(4.41)
durch einfacher zu berechnende Inverse von Untermatrizen ausgedrückt werden. Wenn die Matrix $$\varvec{A }$$ invertierbar ist, erhält man aus (4.38)
$$\begin{aligned} \varvec{x} _1=\varvec{A }^{-1}\varvec{y}_1-\varvec{A }^{-1}\varvec{B }\varvec{x} _2. \end{aligned}$$
(4.42)
Das in (4.39) eingesetzt, ergibt
$$\begin{aligned} \varvec{y}_2=\varvec{CA}^{-1}\varvec{y}_1-(\varvec{CA}^{-1}\varvec{B }-\varvec{D})\varvec{x} _2 \end{aligned}$$
(4.43)
und nach $$\varvec{x} _2$$ aufgelöst
$$\begin{aligned} \varvec{x} _2=(\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}(\varvec{CA}^{-1}\varvec{y}_1-\varvec{y}_2). \end{aligned}$$
(4.44)
(4.44) in (4.42) eingesetzt, liefert
$$\begin{aligned} \varvec{x} _1=[\varvec{A }^{-1}-\varvec{A }^{-1}\varvec{B }(\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}\varvec{CA}^{-1}]\varvec{y}_1 +\varvec{A }^{-1}\varvec{B }(\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}\varvec{y}_2. \end{aligned}$$
(4.45)
Damit ist die Lösung des Gleichungssystems (4.40) gefunden, nämlich
$$\begin{aligned} \left( \begin{array}{c}\varvec{x} _1\\ \hline \varvec{x} _2\end{array}\right) =\varvec{M}^{-1}\left( \begin{array}{c}\varvec{y}_1\\ \hline \varvec{y}_2\end{array}\right) \end{aligned}$$
(4.46)
mit
$$\begin{aligned} \varvec{M}^{-1}=\left( \begin{array}{c|c} \varvec{A }^{-1}-\varvec{A }^{-1}\varvec{B }(\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}\varvec{CA}^{-1}&{} \varvec{A }^{-1}\varvec{B }(\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}\\ \hline (\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}\varvec{CA}^{-1} &{} -(\varvec{CA}^{-1}\varvec{B }-\varvec{D})^{-1}\end{array}\right) \end{aligned}$$
(4.47)
und die inverse Matrix von $$\varvec{M}$$ kann mit Hilfe der inversen Matrizen der kleineren Untermatrizen $$\varvec{A }$$ und $$(\varvec{CA}^{-1}\varvec{B }-\varvec{D})$$ berechnet werden. Wenn die Untermatrix $$\varvec{D}$$ invertierbar ist, kann man (4.39) nach $$\varvec{x} _2$$ auflösen und dann auf einem ähnlichen Weg ebenfalls die inverse Matrix von $$\varvec{M}$$ berechnen. Man erhält eine andere Form der invertierten Matrix, nämlich
$$\begin{aligned} \varvec{M}^{-1}= \left( \begin{array}{c|c}-(\varvec{BD}^{-1}\varvec{C}-\varvec{A })^{-1}&{}(\varvec{BD}^{-1}\varvec{C}-\varvec{A })^{-1}\varvec{BD}^{-1}\\ \hline \varvec{D}^{-1}\varvec{C}(\varvec{BD}^{-1}\varvec{C}-\varvec{A })^{-1} &{} \varvec{D}^{-1}-\varvec{D}^{-1}\varvec{C}(\varvec{BD}^{-1}\varvec{C}-\varvec{A })^{-1}\varvec{BD}^{-1}\end{array}\right) . \end{aligned}$$
(4.48)
Damit liegen zwei verschiedene Ergebnisse für dieselbe Matrix vor. Das heißt aber, dass die entsprechenden Untermatrizen gleich sein müssen. Aus dem Vergleich der nordwestlichen Blöcke folgt, wenn $$\varvec{D}$$ durch $$-\varvec{D}$$ ersetzt wird, das bekannte Matrizeninversionslemma:
$$\begin{aligned} (\varvec{A }+\varvec{BD}^{-1}\varvec{C})^{-1}=\varvec{A }^{-1}-\varvec{A }^{-1}\varvec{B }(\varvec{CA}^{-1}\varvec{B }+\varvec{D})^{-1}\varvec{CA}^{-1}. \end{aligned}$$
(4.49)
Ein Sonderfall ist gegeben, wenn eine Blockdreiecksmatrix vorliegt, bei der z. B. $$\varvec{C}=\varvec{O}$$ ist. Dann erhält man für
$$\begin{aligned} \left( \begin{array}{c|c} \varvec{A }&{}\varvec{B }\\ \hline \varvec{O}&{}\varvec{D}\end{array}\right) ^{-1}=\left( \begin{array}{c|c} \varvec{A }^{-1}&{}-\varvec{A }^{-1}\varvec{B }\varvec{D}^{-1}\\ \hline \varvec{O}&{} \varvec{D}^{-1}\end{array}\right) . \end{aligned}$$
(4.50)

4.3 Das Kronecker-Produkt

4.3.1 Definitionen

Definition
Das Kronecker-Produkt  zweier Matrizen $$\varvec{A}\in \mathbb {C}^{n\times m}$$ und $$\varvec{B}\in \mathbb {C}^{p\times q}$$ ergibt eine Matrix $$\varvec{C}\in \mathbb {C}^{np\times mq}$$, geschrieben
$$\begin{aligned} \varvec{A}\otimes \varvec{B}=\varvec{C}. \end{aligned}$$
Hierbei wird die Untermatrix $$\varvec{C}_{ij}\in \mathbb {C}^{p\times q}$$ für $$i=1$$ bis n und $$j=1$$ bis m definiert
$$\begin{aligned} \varvec{C}_{ij}{\mathop {=}\limits ^\mathrm{def}}a_{ij}\varvec{B}, \end{aligned}$$
insgesamt hat die Matrix $$\varvec{C}$$ die Form
$$\begin{aligned} \varvec{C}=\left( \begin{array}{cccc}a_{11}\varvec{B}&{}a_{12}\varvec{B}&{}\dots &{}a_{1m}\varvec{B}\\ a_{21}\varvec{B}&{}a_{22}\varvec{B}&{}\dots &{}a_{2m}\varvec{B}\\ \dots \\ a_{n1}\varvec{B}&{}a_{n2}\varvec{B}&{}\dots &{}a_{nm}\varvec{B}\end{array}\right) . \end{aligned}$$
Die Matrizenelemente der Produktmatrix $$\varvec{C}$$ kann man direkt mit Hilfe der folgenden Formel
$$\begin{aligned} c_{i, j}=a_{\lfloor \frac{i-1}{p}\rfloor +1,\lfloor \frac{j-1}{q}\rfloor +1}\cdot b_{i-\lfloor \frac{i-1}{p}\rfloor p, j-\lfloor \frac{j-1}{q}\rfloor q} \end{aligned}$$
berechnen, wobei $$\lfloor x\rfloor $$ der ganzzahlige Teil von x ist.
Definition
Wenn die Matrix $$\varvec{A}$$ wie folgt aus den n Spalten $$\varvec{a}_i\in \mathbb {C}^{n}$$ zusammengesetzt ist,
$$\begin{aligned} \varvec{A}=\left( \begin{array}{cccc}\varvec{a}_1&\varvec{a}_2&\dots&\varvec{a}_m\end{array}\right) , \end{aligned}$$
wird der $$\varvec{vec}$$-Operator so definiert:
$$\begin{aligned} \varvec{vec(A)}{\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{c}\varvec{a}_1 \\ \varvec{a}_2 \\ \vdots \\ \varvec{a}_m\end{array}\right) \in \mathbb {C}^{n m}. \end{aligned}$$

4.3.2 Einige Sätze

Sehr interessant ist der folgende

Satz
$$\begin{aligned} \varvec{vec(AXB)=(B}^{^\intercal } \otimes \varvec{A)vec(X).} \end{aligned}$$
(4.51)
Beweis
Sei $$\varvec{B}\in \mathbb {C}^{n\times m}$$, dann ist
$$\begin{aligned} \varvec{AXB}&=\left( \begin{array}{cccc}\varvec{Ax}_1&\varvec{Ax}_2&\ldots&\varvec{Ax}_n\end{array}\right) \varvec{B} \\&=\left( \begin{array}{cccc}\varvec{Ax}_1&\varvec{Ax}_2&\ldots&\varvec{Ax}_n\end{array}\right) \left( \begin{array}{cccc}\varvec{b}_1&\varvec{b}_2&\ldots&\varvec{b}_m\end{array}\right) \\&=\left( \begin{array}{ccc}(b_{11}\varvec{Ax}_1+b_{21}\varvec{Ax}_2+\ldots +b_{n1}\varvec{Ax}_n)&\ldots&(b_{1m}\varvec{Ax}_1+b_{2m}\varvec{Ax}_2+\ldots +b_{nm}\varvec{Ax}_n)\end{array}\right) . \end{aligned}$$
Wendet man auf die letzte Gleichung den $$\varvec{vec}$$-Operator an, erhält man
$$\begin{aligned} \varvec{vec(AXB)}= & {} \left( \begin{array}{c}(b_{11}\varvec{Ax}_1+b_{21}\varvec{Ax}_2+\ldots +b_{n1}\varvec{Ax}_n)\\ \vdots \\ (b_{1m}\varvec{Ax}_1+b_{2m}\varvec{Ax}_2+\ldots +b_{nm}\varvec{Ax}_n)\end{array}\right) \\= & {} \left( \begin{array}{ccc} b_{11}\varvec{A}&{}\ldots &{}b_{n1}\varvec{A}\\ \vdots &{}\vdots &{}\vdots \\ b_{1m}\varvec{A}&{}\ldots &{}b_{nm}\varvec{A}\end{array}\right) \varvec{vec(X)}\\= & {} (\varvec{B}^{^\intercal } \otimes \varvec{A})\varvec{vec(X)}. \end{aligned}$$
   $$\square $$

Aus diesem Satz ergeben sich die Folgerungen:

$$\begin{aligned} \varvec{vec(AX)=(I\otimes A)vec(X)}. \end{aligned}$$
(4.52)
Beweis

Setze im Lemma $$\varvec{B=I}$$.    $$\square $$

$$\begin{aligned} \varvec{vec(XB)=(B^{^\intercal }\otimes I)vec(X)}. \end{aligned}$$
(4.53)
Beweis

Setze im Lemma $$\varvec{A=I}$$.    $$\square $$

$$\begin{aligned} \varvec{vec(ba^{^\intercal })=(a\otimes b)}. \end{aligned}$$
(4.54)
Beweis

Es ist $$\varvec{vec(ba^{^\intercal })=vec(b1a^{^\intercal })=(a\otimes b)vec(1)=a\otimes b}$$.    $$\square $$

4.3.3 Die Permutationsmatrix $$\varvec{U}_{p\times q}$$

Definition
Die Permutationsmatrix
$$\begin{aligned} \varvec{U}_{{p}\times {q}}{\mathop {=}\limits ^\mathrm{def}}\sum _i^p\sum _k^q \varvec{E}_{ik}^{{p}\times {q}}\otimes \varvec{E}_{ki}^{{q}\times {p}} \in \mathbb {R}^{{pq}\times {qp}} \end{aligned}$$
(4.55)
hat genau eine Eins in jeder Spalte und in jeder Zeile. Bei der Bildungsmatrix
$$\begin{aligned} \varvec{E}_{ik}^{{p}\times {q}}{\mathop {=}\limits ^\mathrm{def}}\varvec{e}_i\varvec{e}_k^{^\intercal }, \end{aligned}$$
(4.56)
wobei $$\varvec{e}_i$$ die i-te Spalte von $$\varvec{I}_p$$ und $$\varvec{e}_k$$ die k-te Spalte von $$ \varvec{I}_q$$ ist, ist dagegen nur das Matrixelement $$E_{ik}=1$$; sonst enthält die Matrix nur Nullen.
Beispielsweise hat die in diesem Buch häufig verwendete Permutationsmatrix $$\varvec{U}_{4\times 4}\in \mathbb {R}^{16\times 16}$$ die Form
$$\begin{aligned} \varvec{U}_{4\times 4} = \left( \begin{array}{cccc|cccc|cccc|cccc} 1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0\\ \hline 0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0\\ \hline 0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0\\ \hline 0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1\end{array}\right) . \end{aligned}$$
(4.57)
Die Permutationsmatrix hat die folgenden Eigenschaften [BR78]:
$$\begin{aligned} \varvec{U}_{p\times q}^{^\intercal }= \varvec{U}_{q\times p}, \end{aligned}$$
(4.58)
$$\begin{aligned} \varvec{U}_{p\times q}^{-1} = \varvec{U}_{q\times p}, \end{aligned}$$
(4.59)
$$\begin{aligned} \varvec{U}_{p\times 1} = \varvec{U}_{1\times p} =\varvec{I}_p, \end{aligned}$$
(4.60)
$$\begin{aligned} \varvec{U}_{n\times n} = \varvec{U}_{n\times n}^{^\intercal }=\varvec{U}_{n\times n}^{-1}. \end{aligned}$$
(4.61)
Die Permutationsmatrix wird vor allem genutzt, um die Reihenfolge der Multiplikanden in einem Kronecker–Produkt zu vertauschen, denn es gilt
$$\begin{aligned} \varvec{U}_{s\times p}(\varvec{B}\otimes \varvec{A})\varvec{U}_{q\times t}= \varvec{A}\otimes \varvec{B},\quad \text {wenn } \varvec{A}\in \mathbb {R}^{p\times q}\,\,\text {und}\,\, \varvec{B}\in \mathbb {R}^{s\times t}. \end{aligned}$$
(4.62)

4.3.4 Weitere Eigenschaften des Kronecker-Produkts

Die folgenden wichtigen Eigenschaften werden ebenfalls ohne Beweis (siehe z. B. [BR78]) aufgeführt:
$$\begin{aligned} (\varvec{A}\otimes \varvec{B})\otimes \varvec{C}=\varvec{A}\otimes (\varvec{B}\otimes \varvec{C}), \end{aligned}$$
(4.63)
$$\begin{aligned} (\varvec{A}\otimes \varvec{B})^{^\intercal }=\varvec{A}^{^\intercal }\otimes \varvec{B}^{^\intercal }, \end{aligned}$$
(4.64)
$$\begin{aligned} (\varvec{A}\otimes \varvec{B})(\varvec{C}\otimes \varvec{D})=\varvec{A}\varvec{C}\otimes \varvec{BD}. \end{aligned}$$
(4.65)

4.4 Ableitung von und nach Vektoren bzw. Matrizen

4.4.1 Definitionen

Definition
Die Differentiation einer Matrix $$\varvec{A}\in \mathbb {R}^{n\times m}$$ nach einer Matrix $$\varvec{M}\in \mathbb {R}^{r\times s}$$ wird wie folgt definiert:
$$\begin{aligned} \displaystyle \frac{\partial \varvec{A}}{\partial \varvec{M}} {\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{cccc} \displaystyle \frac{\partial \varvec{A}}{\partial M_{11}} &{}\displaystyle \frac{\partial \varvec{A}}{\partial M_{12}} &{}\cdots &{}\displaystyle \frac{\partial \varvec{A}}{\partial M_{1\, s}} \\ \displaystyle \frac{\partial \varvec{A}}{\partial M_{21}} &{}\displaystyle \frac{\partial \varvec{A}}{\partial M_{22}} &{}\cdots &{}\displaystyle \frac{\partial \varvec{A}}{\partial M_{2\, s}} \\ \vdots &{}\vdots &{}\ddots &{}\vdots \\ \displaystyle \frac{\partial \varvec{A}}{\partial M_{r1}} &{}\displaystyle \frac{\partial \varvec{A}}{\partial M_{r2}} &{}\cdots &{}\displaystyle \frac{\partial \varvec{A}}{\partial M_{rs}} \end{array}\right) \in \mathbb {R}^{nr\times ms}. \end{aligned}$$
(4.66)
Mit dem $${r\times s}$$-Operator
$$\begin{aligned} \displaystyle \frac{\partial }{\partial \varvec{M}} {\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{cccc} \displaystyle \frac{\partial \varvec{}}{\partial M_{11}} &{}\displaystyle \frac{\partial \varvec{}}{\partial M_{12}} &{}\cdots &{}\displaystyle \frac{\partial \varvec{}}{\partial M_{1\, s}} \\ \displaystyle \frac{\partial \varvec{}}{\partial M_{21}} &{}\displaystyle \frac{\partial \varvec{}}{\partial M_{22}} &{}\cdots &{}\displaystyle \frac{\partial \varvec{}}{\partial M_{2\, s}} \\ \vdots &{}\vdots &{}\ddots &{}\vdots \\ \displaystyle \frac{\partial \varvec{}}{\partial M_{r1}} &{}\displaystyle \frac{\partial \varvec{}}{\partial M_{r2}} &{}\cdots &{}\displaystyle \frac{\partial \varvec{}}{\partial M_{rs}} \end{array}\right) \end{aligned}$$
(4.67)
kann die Ableitungsdefinition (4.66) auch einprägsamer so geschrieben werden
$$\begin{aligned} \displaystyle \frac{\partial \varvec{A}}{\partial \varvec{M}} {\mathop {=}\limits ^\mathrm{def}}\displaystyle \frac{\partial }{\partial \varvec{M}} \otimes \varvec{A}. \end{aligned}$$
(4.68)
Damit kann man zeigen, dass
$$\begin{aligned} \left( \displaystyle \frac{\partial \varvec{A}}{\partial \varvec{M}} \right) ^{^\intercal }=\left( \displaystyle \frac{\partial }{\partial \varvec{M}} \otimes \varvec{A}\right) ^{^\intercal }=\left( \left( \displaystyle \frac{\partial }{\partial \varvec{M}} \right) ^{^\intercal }\otimes \varvec{A}^{^\intercal }\right) =\displaystyle \frac{\partial \varvec{A}^{^\intercal }}{\partial \varvec{M}^{^\intercal }} . \end{aligned}$$
(4.69)
Für die Ableitung von Vektoren nach Vektoren folgt dann:
$$\begin{aligned} \displaystyle \frac{\partial \varvec{f}^{^\intercal }}{\partial \varvec{p}} {\mathop {=}\limits ^\mathrm{def}}\displaystyle \frac{\partial }{\partial \varvec{p}} \otimes \varvec{f}^{^\intercal }= \left( \begin{array}{c}\displaystyle \frac{\partial \varvec{f}^{^\intercal }}{\partial p_1} \\ \displaystyle \frac{\partial \varvec{f}^{^\intercal }}{\partial p_2} \\ \vdots \\ \displaystyle \frac{\partial \varvec{f}^{^\intercal }}{\partial p_r} \end{array}\right) =\left( \begin{array}{cccc} \displaystyle \frac{\partial f_1}{\partial p_1} &{}\displaystyle \frac{\partial f_2}{\partial p_1} &{}\cdots &{}\displaystyle \frac{\partial f_n}{\partial p_1} \\ \displaystyle \frac{\partial f_1}{\partial p_2} &{}\displaystyle \frac{\partial f_2}{\partial p_2} &{}\cdots &{}\displaystyle \frac{\partial f_n}{\partial M_2} \\ \vdots &{}\vdots &{}\ddots &{}\vdots \\ \displaystyle \frac{\partial f_1}{\partial p_r} &{}\displaystyle \frac{\partial f_2}{\partial p_r} &{}\cdots &{}\displaystyle \frac{\partial f_n}{\partial p_s} \end{array}\right) \in \mathbb {R}^{r\times n}, \end{aligned}$$
(4.70)
und
$$\begin{aligned} \displaystyle \frac{\partial \varvec{f}}{\partial \varvec{p}^{^\intercal }} {\mathop {=}\limits ^\mathrm{def}}\displaystyle \frac{\partial }{\partial \varvec{p}^{^\intercal }} \otimes \varvec{f} = \left( \displaystyle \frac{\partial }{\partial \varvec{p}} \otimes \varvec{f}^{^\intercal }\right) ^{^\intercal }=\left( \displaystyle \frac{\partial \varvec{f}^{^\intercal }}{\partial \varvec{p}} \right) ^{^\intercal }\in \mathbb {R}^{n\times r}, \end{aligned}$$
(4.71)

4.4.2 Produktregel

Seien $$\varvec{A}=\varvec{A}(\alpha )$$ und $$\varvec{B}=\varvec{B}(\alpha )$$. Dann gilt offensichtlich
$$\begin{aligned} \displaystyle \frac{\partial (\varvec{AB})}{\partial \alpha } =\displaystyle \frac{\partial \varvec{A}}{\partial \alpha } \varvec{B} + \varvec{A}\displaystyle \frac{\partial \varvec{B}}{\partial \alpha } . \end{aligned}$$
(4.72)
Außerdem kann (4.66) auch so geschrieben werden:
$$\begin{aligned} \displaystyle \frac{\partial \varvec{A}}{\partial \varvec{M}} =\sum _{i, k}\varvec{E}_{ik}^{s\times t}\otimes \displaystyle \frac{\partial \varvec{A}}{\partial m_{ik}} ,\quad \varvec{M}\in \mathbb {R}^{s\times t}. \end{aligned}$$
(4.73)
Mittels (4.72) und (4.73) kann dann die Produktregel hergeleitet werden:
$$\begin{aligned} \underline{\underline{ \displaystyle \frac{\partial (\varvec{AB})}{\partial \varvec{M}} }}=\sum _{i,k}\varvec{E}_{ik}^{s\times t}\otimes \displaystyle \frac{\partial (\varvec{AB})}{\partial m_{ik}}&=\sum _{i, k}\varvec{E}_{ik}^{s\times t}\otimes \left( \displaystyle \frac{\partial \varvec{A}}{\partial m_{ik}} \varvec{B} + \varvec{A}\displaystyle \frac{\partial \varvec{B}}{\partial m_{ik}} \right) \nonumber \\&=\left( \displaystyle \frac{\partial }{\partial \varvec{M}} \otimes \varvec{A}\right) (\varvec{I}_t\otimes \varvec{B}) +(\varvec{I}_s\otimes \varvec{A})\left( \displaystyle \frac{\partial }{\partial \varvec{M}} \otimes \varvec{B}\right) \nonumber \\&= \underline{\underline{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{M}} (\varvec{I}_t\otimes \varvec{B}) +(\varvec{I}_s\otimes \varvec{A})\displaystyle \frac{\partial \varvec{B}}{\partial \varvec{M}} }}. \end{aligned}$$
(4.74)

4.4.3 Kettenregel

Wenn die Matrix $$\varvec{A}\in \mathbb {R}^{n\times m}$$ eine Funktion der Matrix $$\varvec{B}\in \mathbb {R}^{k\times \ell }$$ ist und diese wiederum eine Funktion der Matrix $$\varvec{M}\in \mathbb {R}^{r\times s}$$ ist, dann gilt die Kettenregel [BR78]:
$$\begin{aligned} \displaystyle \frac{\partial }{\partial \varvec{M}} \varvec{A}(\varvec{B}(\varvec{M}))&=\left( \varvec{I}_r\otimes \displaystyle \frac{\partial \varvec{A}}{\partial (\varvec{vec}(\varvec{B}^{^\intercal }))^{^\intercal }} \right) \left( \displaystyle \frac{\partial \varvec{vec}(\varvec{B}^{^\intercal })}{\partial \varvec{M}} \otimes \varvec{I}_m\right) \nonumber \\&=\left( \displaystyle \frac{\partial (\varvec{vec}(\varvec{B}))^{^\intercal }}{\partial \varvec{M}} \otimes \varvec{I}_n\right) \left( \varvec{I}_s\otimes \displaystyle \frac{\partial \varvec{A}}{\partial \varvec{vec}(\varvec{B})} \right) . \end{aligned}$$
(4.75)
Ein Spezialfall hiervon ist
$$\begin{aligned} \frac{\mathrm{d}\varvec{A}(\varvec{x}(t))}{\mathrm{d}t}=\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x}^{^\intercal }} \left( \frac{\mathrm{d}\varvec{x}}{\mathrm{d}t}\otimes \varvec{I}_m\right) =\left( \frac{\mathrm{d}\varvec{x}^{^\intercal }}{\mathrm{d}t}\otimes \varvec{I}_n\right) \displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x}} \in \mathbb {R}^{n\times m}. \end{aligned}$$
(4.76)

4.5 Differentiation nach der Zeit

Im Buch werden einige mathematische Zusammenhänge benötigt, die in der anzugebenden Form nicht allen Lesern geläufig sein werden. Deshalb der folgende Abschnitt über etwas Mathematik.

4.5.1 Ableitung einer Funktion nach der Zeit

Gegeben sei eine Funktion a, die von den drei Ortsvarablen $$x_1,x_2$$ und $$x_3$$ abhängt. Die Ortsvariablen selbst seien wiederum abhängig von dem Zeitparameter t. Es ist also
$$\begin{aligned} a=a(\varvec{x} (t)), \end{aligned}$$
(4.77)
wenn man die drei Ortsvariablen in dem Vektor $$\varvec{x} $$ zusammenfaßt.
Gesucht ist die Änderungsgeschwindigkeit
$$\begin{aligned} \dot{a} =\frac{\mathrm{d}a}{\mathrm{d}t}. \end{aligned}$$
(4.78)
Um diese Abhängigkeit zu bestimmen, wird zunächst die totale Differenz
$$\begin{aligned} \triangle a{\mathop {=}\limits ^\mathrm{def}}\displaystyle \frac{\partial a}{\partial x_1} \triangle x_1+\displaystyle \frac{\partial a}{\partial x_2} \triangle x_2+\displaystyle \frac{\partial a}{\partial x_3} \triangle x_3. \end{aligned}$$
(4.79)
definiert. Daraus erhält man nach Grenzübergang $$\triangle t\rightarrow 0$$
$$\begin{aligned} \dot{a}=\frac{\mathrm{d}a}{\mathrm{d}t}=\lim _{\triangle t t}=\displaystyle \frac{\partial a}{\partial x_1} \dot{x}_1+\displaystyle \frac{\partial a}{\partial x_2} \dot{x}_2+\displaystyle \frac{\partial a}{\partial x_3} \dot{x}_3. \end{aligned}$$
(4.80)
Dabei kann die rechte Seite der Gleichung als Skalarprodukt der beiden dreidimensionalen Vektoren $$\dot{\varvec{x} }$$ und $$\displaystyle \frac{\partial a}{\partial \varvec{x} } $$ auf zwei Arten dargestellt werden
$$\begin{aligned} \dot{a}=\dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a}{\partial \varvec{x} } {\mathop {=}\limits ^{und}}\displaystyle \frac{\partial a}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }. \end{aligned}$$
(4.81)

4.5.2 Ableitung eines Vektors nach der Zeit

Liegen zwei Funktionen $$a_1$$ und $$a_2$$ vor, die die gleiche Abhängigkeit von der Zeit wie a(t) in (4.77) haben, zusammengefasst in dem Vektor
$$\begin{aligned} \varvec{a}{\mathop {=}\limits ^\mathrm{def}}\left( \begin{array}{c}a_1(\varvec{x} (t))\\ a_2(\varvec{x} (t))\end{array}\right) , \end{aligned}$$
(4.82)
dann erhält man für die zeitliche Ableitung unter Verwendung von (4.81) zunächst
$$\begin{aligned} \dot{\varvec{a}}= \left( \begin{array}{c}\dot{{a}}_1\\ \dot{{a}}_2\end{array}\right) =\left( \begin{array}{c} \dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_1}{\partial \varvec{x} } \\ \dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_2}{\partial \varvec{x} } \end{array}\right) {\mathop {=}\limits ^{oder}}\left( \begin{array}{c}\displaystyle \frac{\partial a_1}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }\\ \displaystyle \frac{\partial a_2}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }\end{array}\right) . \end{aligned}$$
(4.83)
Den vorletzten Vektor in (4.83) kann man wie folgt zerlegen
$$\begin{aligned} \dot{\varvec{a}}=\left( \begin{array}{c} \dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_1}{\partial \varvec{x} } \\ \dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_2}{\partial \varvec{x} } \end{array}\right) =\left( \begin{array}{cc}\dot{\varvec{x} }^{^\intercal }&{} \varvec{o}_3^{^\intercal }\\ \varvec{o}_3^{^\intercal }&{}\dot{\varvec{x} }^{^\intercal }\end{array}\right) \left( \begin{array}{c} \displaystyle \frac{\partial a_1}{\partial \varvec{x} } \\ \displaystyle \frac{\partial a_2}{\partial \varvec{x} } \end{array}\right) =\left( \varvec{I}_2\otimes \dot{\varvec{x} }^{^\intercal }\right) \left( \varvec{a}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} } \right) . \end{aligned}$$
(4.84)
Bei der Ausführung des letzten Kronecker-Produkts würde man formal $$a_i\displaystyle \frac{\partial }{\partial \varvec{x} } $$ erhalten; darunter soll natürlich $$\displaystyle \frac{\partial a_i}{\partial \varvec{x} } $$ verstanden werden. Für das letzte Produkt in (4.84) kann man – mit Hilfe der Permutationsmatrix $$\varvec{U}_{\alpha \times \beta }$$ und der Vertauschungsregel (A.62)
$$ (\varvec{A}\otimes \varvec{B})=\varvec{U}_{s\times p}(\varvec{B}\otimes \varvec{A})\varvec{U}_{q\times t}\quad \text {if}\quad \varvec{A}\in \mathbb {R}^{p\times q}\quad \text {and}\quad \varvec{B}\in \mathbb {R}^{s\times t}, $$
für das Kronecker-Produkt – auch schreiben (hier sei allgemein jetzt $$\varvec{x} \in \mathbb {R}^r$$)
$$\begin{aligned} \underline{\underline{\dot{\varvec{a}}}}=[\underbrace{ \varvec{U}_{1\times 2}}_{\varvec{I}_2}( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_2)\underbrace{\varvec{U}_{2\times r}][\varvec{U}_{r\times 2}}_{\varvec{I}_{2r}}\underbrace{\left( \displaystyle \frac{\partial }{\partial \varvec{x} } \otimes \varvec{a}\right) }_{\displaystyle \frac{\partial \varvec{a}}{\partial \varvec{x} } }\underbrace{\varvec{U}_{1\times 1}}_1]=\underline{\underline{( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_2)\displaystyle \frac{\partial \varvec{a}}{\partial \varvec{x} } }}. \end{aligned}$$
(4.85)
Mit der Vertauschungsregel erhält man für die letzte Form in (4.83)
$$\begin{aligned} \underline{\underline{\dot{\varvec{a}}}}=\left( \begin{array}{c}\displaystyle \frac{\partial a_1}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }\\ \displaystyle \frac{\partial a_2}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }\end{array}\right) =\left( \varvec{a}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} } \right) \dot{\varvec{x} }=[\underbrace{\varvec{U}_{1\times 2}}_{\varvec{I}_2}\left( \displaystyle \frac{\partial }{\partial \varvec{x} ^{^\intercal }} \otimes \varvec{a}\right) \underbrace{\varvec{U}_{1\times r}}_{\varvec{I}_r}]\dot{\varvec{x} }=\underline{\underline{ \displaystyle \frac{\partial \varvec{a}}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }}}, \end{aligned}$$
(4.86)
so dass man zusammengefasst die beiden Darstellungsmöglichkeiten erhält
$$\begin{aligned} \dot{\varvec{a}}=( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_2)\displaystyle \frac{\partial \varvec{a}}{\partial \varvec{x} } {\mathop {=}\limits ^{und}}\displaystyle \frac{\partial \varvec{a}}{\partial \varvec{x} ^{^\intercal }} \dot{\varvec{x} }. \end{aligned}$$
(4.87)

4.5.3 Ableitung einer $$2 \times 3$$-Matrix nach der Zeit

Für die Ableitung einer $$2\times 3$$-Matrix nach der Zeit erhält man mit den obigen Ergebnissen
$$\begin{aligned} \underline{\underline{\dot{\varvec{A}}}}=\left( \begin{array}{ccc}\dot{a}_{11}&{}\dot{a}_{12}&{}\dot{a}_{13}\\ \dot{a}_{21}&{}\dot{a}_{22}&{}\dot{a}_{23}\end{array}\right)&= \left( \begin{array}{ccc}\dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_{11}}{\partial \varvec{x} } &{}\dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_{12}}{\partial \varvec{x} } &{}\dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_{13}}{\partial \varvec{x} } \\ \dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_{21}}{\partial \varvec{x} } &{}\dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_{22}}{\partial \varvec{x} } &{}\dot{\varvec{x} }^{^\intercal }\displaystyle \frac{\partial a_{23}}{\partial \varvec{x} } \end{array}\right) \nonumber \\&=\left( \begin{array}{cc}\dot{\varvec{x} }^{^\intercal }&{} \varvec{o}_3^{^\intercal }\\ \varvec{o}_3^{^\intercal }&{}\dot{\varvec{x} }^{^\intercal }\end{array}\right) \left( \varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} } \right) =(\varvec{I}_2\otimes \dot{\varvec{x} }^{^\intercal })\left( \varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} } \right) \nonumber \\&=[\underbrace{ \varvec{U}_{1\times 2}}_{\varvec{I}_2}( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_2)\underbrace{\varvec{U}_{2\times r}][\varvec{U}_{r\times 2}}_{\varvec{I}_{2r}}\underbrace{\left( \displaystyle \frac{\partial }{\partial \varvec{x} } \otimes \varvec{A}\right) }_{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} } }\underbrace{\varvec{U}_{3\times 1}}_{\varvec{I}_3}] \nonumber \\&=\underline{\underline{( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_2)\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} } }} \end{aligned}$$
(4.88)
oder mit der zweiten Darstellung in (4.81) für die $$\dot{a}_{ij}$$:
$$\begin{aligned} \underline{\underline{\dot{\varvec{A}}}}&=\left( \begin{array}{ccc}\displaystyle \frac{\partial a_{11}}{\partial {\varvec{x} }^{^\intercal }} \dot{\varvec{x} }&{}\displaystyle \frac{\partial a_{12}}{\partial {\varvec{x} }^{^\intercal }} \dot{\varvec{x} }&{}\displaystyle \frac{\partial a_{13}}{\partial {\varvec{x} }^{^\intercal }} \dot{\varvec{x} }\\ \displaystyle \frac{\partial a_{21}}{\partial {\varvec{x} }^{^\intercal }} \dot{\varvec{x} }&{}\displaystyle \frac{\partial a_{22}}{\partial {\varvec{x} }^{^\intercal }} \dot{\varvec{x} }&{}\displaystyle \frac{\partial a_{23}}{\partial {\varvec{x} }^{^\intercal }} \dot{\varvec{x} }\end{array}\right) =\left( \varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} ^{^\intercal }} \right) \left( \begin{array}{ccc}\dot{\varvec{x} }&{}\varvec{o}&{}\varvec{o}\\ \varvec{o}&{}\dot{\varvec{x} }&{}\varvec{o}\\ \varvec{o}&{}\varvec{o}&{}\dot{\varvec{x} }\end{array}\right) \nonumber \\&=[\underbrace{ \varvec{U}_{1\times 2}}_{\varvec{I}_2}\underbrace{(\displaystyle \frac{\partial }{\partial \varvec{x} ^{^\intercal }} \otimes \varvec{A})}_{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} ^{^\intercal }} }\underbrace{\varvec{U}_{3\times r}][\varvec{U}_{r\times 3}}_{\varvec{I}_{3r}}( \dot{\varvec{x} }\otimes \varvec{I}_3)\underbrace{\varvec{U}_{3\times 1}}_{\varvec{I}_3}] =\underline{\underline{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} ^{^\intercal }} ( \dot{\varvec{x} }\otimes \varvec{I}_3)}}. \end{aligned}$$
(4.89)
Hier tritt auch bei der zweiten Darstellung in (4.89) das Kronnecker-Produkt auf.

4.5.4 Ableitung einer $$n \times m$$-Matrix nach der Zeit

Allgemein erhält man für eine Matrix $${\varvec{A}}\in \mathbb {R}^{n\times m}$$ und einen Vektor $$\varvec{x} \in \mathbb {R}^r$$

$$\begin{aligned} \dot{\varvec{A}}=( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_n)\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} } {\mathop {=}\limits ^{und}}\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} ^{^\intercal }} ( \dot{\varvec{x} }\otimes \varvec{I}_m)\in \mathbb {R}^{n\times m}. \end{aligned}$$
(4.90)
Die Herleitung ist im Folgenden ohne weitere Kommentare angegeben.
$$\begin{aligned} \dot{\varvec{A}}&=\left( \begin{array}{ccc}\dot{\varvec{x} }^{^\intercal }&{}&{}O\\ &{}\ddots &{}\\ O&{}&{}\dot{\varvec{x} }^{^\intercal }\end{array}\right) (\varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} } )=(\varvec{I}_n\otimes \dot{\varvec{x} }^{^\intercal })(\varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} } ) \\&=[\underbrace{ \varvec{U}_{1\times n}}_{\varvec{I}_n}( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_n)\underbrace{\varvec{U}_{n\times r}][\varvec{U}_{r\times n}}_{\varvec{I}_{nr}}\underbrace{\left( \displaystyle \frac{\partial }{\partial \varvec{x} } \otimes \varvec{A}\right) }_{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} } }\underbrace{\varvec{U}_{m\times 1}}_{\varvec{I}_m}] =\underline{\underline{( \dot{\varvec{x} }^{^\intercal }\otimes \varvec{I}_n)\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} } }}. \end{aligned}$$
$$\begin{aligned} \dot{\varvec{A}}&=\left( \varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} ^{^\intercal }} \right) \left( \begin{array}{ccc}\dot{\varvec{x} }&{}&{}O\\ &{}\ddots &{}\\ O&{}&{}\dot{\varvec{x} }\end{array}\right) =\left( \varvec{A}\otimes \displaystyle \frac{\partial }{\partial \varvec{x} ^{^\intercal }} \right) (\varvec{I}_n\otimes \dot{\varvec{x} })\\&=[\underbrace{\varvec{U}_{1\times n}}_{\varvec{I}_{n}}\underbrace{(\displaystyle \frac{\partial }{\partial \varvec{x} ^{^\intercal }} \otimes \varvec{A})}_{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} ^{^\intercal }} }\underbrace{\varvec{U}_{m\times r}][ \varvec{U}_{r\times m}}_{\varvec{I}_{mr}}( \dot{\varvec{x} }\otimes \varvec{I}_m)\varvec{U}_{m\times 1}] =\underline{\underline{\displaystyle \frac{\partial \varvec{A}}{\partial \varvec{x} ^{^\intercal }} ( \dot{\varvec{x} }\otimes \varvec{I}_n)}}. \end{aligned}$$

4.5.5 Ergänzungen zur Ableitung nach einer Matrix

Für die Ableitung einer $$4\times 4$$-Matrix nach sich selbst gilt allgemein
$$\begin{aligned} \displaystyle \frac{\partial \varvec{M}}{\partial \varvec{M}} =\varvec{\bar{U}}_{4\times 4}, \end{aligned}$$
(4.91)
wobei $$\varvec{\bar{U}}_{4\times 4}$$ so definiert ist
$$\begin{aligned} \varvec{\bar{U}}_{4\times 4}{\mathop {=}\limits ^\mathrm{def}}\sum _i^4\sum _k^4 \varvec{E}_{ik}\otimes \varvec{E}_{ik}= \left( \begin{array}{cccc|cccc|cccc|cccc} 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ \hline 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ \hline 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ \hline 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\end{array}\right) . \end{aligned}$$
(4.92)
Diese Tatsache kann man sich leicht anhand der Definition der Differentiation einer Matrix nach einer Matrix klarmachen. Das Ergebnis wird noch etwas komplexer, wenn die Matrix $$\varvec{M}=\varvec{M}^{^\intercal }$$ symmetrisch ist, denn dann ist
$$\begin{aligned} \displaystyle \frac{\partial \varvec{M}}{\partial \varvec{M}} =\varvec{\bar{U}}_{4\times 4}+\varvec{U}_{4\times 4}-\sum _i^4 \varvec{E}_{ii}\otimes \varvec{E}_{ii} \end{aligned}$$
$$\begin{aligned} =\left( \begin{array}{cccc|cccc|cccc|cccc} 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\\ 0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0\\ \hline 0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0\\ \hline 0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0\\ \hline 0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0\\ 0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0\\ 1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1&{}0&{}0&{}0&{}0&{}1\end{array}\right) . \end{aligned}$$
(4.93)