© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2022
S. Boblest et al.Spezielle und allgemeine Relativitätstheoriehttps://doi.org/10.1007/978-3-662-63352-6_5

5. Mathematischer Formalismus der SRT

Sebastian Boblest1  , Thomas Müller2   und Günter Wunner3  
(1)
Dürnau, Deutschland
(2)
Max-Planck-Institut für Astronomie, Haus der Astronomie, Heidelberg, Deutschland
(3)
Universität Stuttgart, 1. Institut für Theoretische Physik, Stuttgart, Deutschland
 

Unsere bisherige mathematische Notation war ausreichend, um die Grundzüge der speziellen Relativitätstheorie und ihre Folgen nachvollziehen zu können. Im Hinblick auf die relativistische Mechanik, aber vor allem für die kovariante Formulierung der Elektrodynamik und später der allgemeinen Relativitätstheorie, müssen wir uns einer kompakteren und allgemeineren Notation widmen. Vieles in diesem Kapitel wird einem als eine ,,Übermathematisierung“, als eine fast zwanghafte Einführung einer abstrakten mathematischen Notation, vorkommen. Sie ist jedoch für spätere Anwendungen unumgänglich.

Wir haben bereits Vierervektoren in der Form xμ = (x0, x1, x2, x3) = (ct, x, y, z) mit einem griechischen Index geschrieben und eingeführt, dass xμ je nach Kontext den Vektor $$ \underline{\boldsymbol{x}} $$ oder eine Komponente dieses Vektors bezeichnen kann. Die Transformation in ein anderes Bezugssystem ist dann eine einfache Matrix-Vektor-Multiplikation.

Ab jetzt schreiben wir die Matrizen der Lorentz-Transformation ebenfalls als indexbehaftete Größen. Wenn ein Vektor einen Index hat, ist es anschaulich, dass eine Matrix entsprechend mit zwei Indizes gekennzeichnet wird, wobei ein Index die Zeile und ein Index die Spalte kennzeichnet, d. h. aus Λ wird Λμν.

Weiterhin führen wir die Einstein'sche Summenkonvention ein, um Schreibarbeit zu sparen. Diese besagt, dass über doppelt vorkommende Indizes in einem Ausdruck summiert wird. Eine Lorentz-Transformation in ein anderes Inertialsystem schreiben wir dann als
$$ {x}^{\prime \mu }={\varLambda^{\mu}}_{\nu }{x}^{\nu}\equiv \sum \limits_{\nu =0}^3{\varLambda^{\mu}}_{\nu }{x}^{\nu }. $$
(5.1)

5.1 Minkowski-Raum

Wir haben bei der Einführung der Lorentz-Transformation die Forderung aufgestellt, dass die Größe
$$ {s}^2=-{c}^2{t}^2+{x}^2+{y}^2+{z}^2 $$
(5.2)
darunter invariant bleiben soll und auch schon auf die formale Ähnlichkeit mit dem Abstandsquadrat
$$ {l}^2={x}^2+{y}^2+{z}^2 $$
(5.3)
im euklidischen Raum hingewiesen. Jede Drehmatrix D im euklidischen Raum lässt den Abstand l zwischen zwei Punkten invariant. Entsprechend lässt die Lorentz-Transformation den ,,Abstand“ s invariant. Dieser ist aber kein Abstand im euklidischen Sinn. Die SRT ist also in einem nicht-euklidischen Raum definiert, in dem der ,,Abstand“ zwischen Punkten anders definiert ist. Mathematisch sagen wir, dieser Raum hat eine andere Metrik als der euklidische. Die zur SRT gehörende Metrik ist die Minkowski-Metrik und der zugehörige Raum heißt entsprechend Minkowski-Raum .

5.1.1 Definition des Minkowski-Raumes

Der Minkowski-Raum ist ein vierdimensionaler, reeller Vektorraum mit folgendem Skalarprodukt : Seien $$ \underline{\boldsymbol{a}} $$ und $$ \underline{\boldsymbol{b}} $$ Vierervektoren mit den Komponenten aμ und bμ. Das Skalarprodukt $$ \left\langle \underline{\boldsymbol{a}},\underline{\boldsymbol{b}}\right\rangle $$ ist gegeben durch:
$$ {\displaystyle \begin{array}{rll}\left\langle \underline{\boldsymbol{a}},\underline{\boldsymbol{b}}\right\rangle ={a}_{\mu }{b}^{\mu }& ={a}_0{b}^0+{a}_1{b}^1+{a}_2{b}^2+{a}_3{b}^3& \\ {}& =-{a}^0{b}^0+{a}^1{b}^1+{a}^2{b}^2+{a}^3{b}^3\\ {}& ={\eta}_{\mu \nu}{a}^{\mu }{b}^{\nu },\end{array}} $$
(5.4)
mit der Minkowski-Metrik
$$ {\eta}_{\mu \nu}=\left(\begin{array}{cccc}-1& 0& 0& 0\\ {}0& 1& 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right). $$
(5.5)
Die Größe bμ mit hochgestelltem Index heißt kontravarianter Vektor , aμ mit tiefgestelltem Index heißt kovarianter Vektor . Diese Begriffe präzisieren wir in Abschn. 5.2. Die Matrix ημν = ημν ermöglicht im Minkowski-Raum das Herauf- und Herunterziehen von Indizes. Darüber sind etwa die Größen aμ und aμ verknüpft, d. h. wir haben
$$ {a}_{\mu }={\eta}_{\mu \nu}{a}^{\nu }=\left(\begin{array}{c}-{a}^0\\ {}{a}^1\\ {}{a}^2\\ {}{a}^3\end{array}\right)\quad  \mathrm{mit}\quad  {a}^{\nu }=\left(\begin{array}{l}{a}^0\\ {}{a}^1\\ {}{a}^2\\ {}{a}^3\end{array}\right). $$
(5.6)
Das Abstandsquadrat s2 können wir unter Verwendung der Minkowski-Metrik dann analog als
$$ {s}^2={\eta}_{\mu \nu}{x}^{\mu }{x}^{\nu } $$
(5.7)
schreiben.
Im euklidischen Raum gilt
$$ \left\langle \boldsymbol{x},\boldsymbol{x}\right\rangle >0\quad  \mathrm{f}\ddot{\mathrm{u}}\mathrm{r}\ \mathrm{alle}\quad  \boldsymbol{x}\ne \mathbf{0}\quad  \mathrm{und}\quad  \left\langle \boldsymbol{x},\boldsymbol{x}\right\rangle =\mathbf{0}\iff \boldsymbol{x}=\mathbf{0}. $$
(5.8)
Das Skalarprodukt eines Vektors mit sich selbst ist also größer Null, wenn der Vektor nicht der Nullvektor ist, und nur genau für den Nullvektor ebenfalls Null, d. h. es ist positiv definit. Im Gegensatz dazu ist das Skalarprodukt im Minkowski-Raum nicht positiv definit, wie man an der Definition sofort erkennt. Wie bereits diskutiert heißen Vektoren mit $$ \left\langle \underline{\boldsymbol{x}},\underline{\boldsymbol{x}}\right\rangle <0 $$ zeitartig , solche mit $$ \left\langle \underline{\boldsymbol{x}},\underline{\boldsymbol{x}}\right\rangle >0 $$ raumartig und solche mit $$ \left\langle \underline{\boldsymbol{x}},\underline{\boldsymbol{x}}\right\rangle =0 $$ lichtartig .

5.1.2 Definition der Lorentz-Transformation

Unter Verwendung der Minkowski-Metrik können wir jetzt die notwendige Eigenschaft für eine Matrix herleiten, die sie zu einer Lorentz-Transformation macht, d. h. den Abstand s invariant lässt. Wieder betrachten wir zwei Inertialsysteme S und S′ und einen Vierervektor mit Koordinaten xν in S und xμ in S′, sowie eine Lorentz-Transformation, die von S nach S′ transformiert, d. h. es ist xμ = Λμνxν.

Aus der Invarianz von s2 = xμxμ unter Lorentz-Transformationen folgt dann
$$ {\eta}_{\alpha \beta}{x}^{\alpha }{x}^{\beta }={\eta}_{\mu \nu}{x}^{\prime \mu }{x}^{\prime \nu }. $$
(5.9)
Wir setzen für x′μ den durch die Lorentz-Transformation definierten Ausdruck ein und erhalten
$$ {\eta}_{\mu \nu}{x}^{\prime \mu }{x}^{\prime \nu }={\eta}_{\mu \nu}\left({\varLambda^{\mu}}_{\alpha }{x}^{\alpha}\right)\left({\varLambda^{\nu}}_{\beta }{x}^{\beta}\right). $$
(5.10)
Dieses Ergebnis verwenden wir in (5.9) und bringen alle Ausdrücke auf die linke Seite. Dann haben wir
$$ {\xi}_{\alpha \beta}{x}^{\alpha }{x}^{\beta }=0\quad  \mathrm{mit}\quad  {\xi}_{\alpha \beta}={\eta}_{\mu \nu}{\varLambda^{\mu}}_{\alpha }{\varLambda^{\nu}}_{\beta }-{\eta}_{\alpha \beta}. $$
(5.11)
Da aber ξαβ xα xβ = 0 für beliebige xα und xβ gelten soll, muss
$$ {\varLambda^{\mu}}_{\alpha }{\eta}_{\mu \nu}{\varLambda^{\nu}}_{\beta }={\eta}_{\alpha \beta} $$
(5.12)
sein. Dabei haben wir die Reihenfolge der Faktoren auf der linken Seite vertauscht. Die erste Multiplikation in dieser Gleichung ist keine Matrizenmultiplikation, da μ sowohl in der Lorentz-Transformation als auch in der Minkowski-Metrik ein Spaltenindex ist. In Einstein'scher Summenkonvention dargestellte mathematische Operationen können nicht immer oder nicht direkt als Matrixgleichung dargestellt werden. Um diese Gleichung als Matrizenmultiplikation darzustellen, muss die erste Lorentz-Matrix transponiert werden. Es ergibt sich dann die Bedingungsgleichung
$$ {\boldsymbol{\varLambda}}^{\mathrm{T}}\boldsymbol{\eta} \boldsymbol{\varLambda} =\boldsymbol{\eta} $$
(5.13)
für Lorentz-Transformationen. Diese Gleichung ist analog zur Definition der orthogonalen Drehmatrizen DT1D = 1 im euklidischen Raum. Anstelle der Minkowski-Metrik η steht hier die Identität 1.
Wenn wir die Determinante von (5.13) bilden, so ergibt sich
(5.14)
Mit $$ \det \left(\boldsymbol{\eta} \right)=-1 $$ und $$ \det \left({\boldsymbol{\varLambda}}^{\mathrm{T}}\right)=\det \left(\boldsymbol{\varLambda} \right) $$ erhalten wir
$$ \det \boldsymbol{\varLambda} =\pm 1. $$
(5.15)
Wenden wir die Minkowski-Metrik nochmals von links auf (5.12) an, so führt dies auf
$$ {\eta}^{\kappa \alpha}{\varLambda^{\mu}}_{\alpha }{\eta}_{\mu \nu}{\varLambda^{\nu}}_{\beta }={\eta}^{\kappa \alpha}{\eta}_{\alpha \beta}. $$
(5.16)
Mit $$ {\eta}^{\kappa \alpha}{\eta}_{\alpha \beta}={\delta}_{\beta}^{\kappa } $$ und ηκαΛμαημν = Λνκ folgt dann
$$ {\varLambda_{\nu}}^{\kappa }{\varLambda^{\nu}}_{\beta }={\delta}_{\beta}^{\kappa }=\left\{\begin{array}{ll}1,& \mathrm{falls}\,    \kappa =\beta, \\ {}0,& \mathrm{sonst},\end{array}\right. $$
(5.17)
wobei $$ {\delta}_{\beta}^{\kappa } $$ für das Kronecker-Symbol steht. Die Größe
$$ {\varLambda_{\nu}}^{\kappa }={\eta}^{\kappa \alpha}{\varLambda^{\mu}}_{\alpha }{\eta}_{\mu \nu} $$
(5.18)
ist also die Inverse der Lorentz-Transformation Λμα. Wichtig hierbei ist, auf die Stellung der Indizes zu achten.
Wir werten diese Gleichung explizit für den Lorentz-Boost in x-Richtung aus (s. (3.​20)). Hochziehen des zweiten Index geschieht über
$$ {\varLambda}^{\alpha \mu}={\eta}^{\beta \mu}{\varLambda^{\alpha}}_{\beta }={\varLambda^{\alpha}}_{\beta }{\eta}^{\beta \mu}. $$
(5.19)
In Matrixdarstellung ausgeschrieben lautet diese Gleichung
$$ {\varLambda}^{\alpha \mu}=\left(\begin{array}{cccc}\gamma & -\beta \gamma & 0& 0\\ {}-\beta \gamma & \gamma & 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)\cdotp \left(\begin{array}{llll}-1& 0& 0& 0\\ {}0& 1& 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)=\left(\begin{array}{llll}-\gamma & -\beta \gamma & 0& 0\\ {}\beta \gamma & \gamma & 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right). $$
(5.20)
Herunterziehen des ersten Index erfolgt weiter durch
$$ {\varLambda_{\lambda}}^{\mu }={\eta}_{\lambda \alpha}{\varLambda}^{\alpha \mu}. $$
(5.21)
Diese Gleichung können wir wiederum in Matrixschreibweise darstellen und erhalten
$$ {\varLambda_{\lambda}}^{\mu }=\left(\begin{array}{cccc}-1& 0& 0& 0\\ {}0& 1& 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)\cdotp \left(\begin{array}{llll}-\gamma & -\beta \gamma & 0& 0\\ {}\beta \gamma & \gamma & 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)=\left(\begin{array}{llll}\gamma & \beta \gamma & 0& 0\\ {}\beta \gamma & \gamma & 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right). $$
(5.22)
Damit können wir (5.17) nun für den x-Boost in Matrixdarstellung auswerten. Es ergibt sich dann
$$ {\displaystyle \begin{array}{rll}{\varLambda_{\lambda}}^{\mu }{\varLambda^{\lambda}}_{\nu }& =\left(\begin{array}{cccc}\gamma & \beta \gamma & 0& 0\\ {}\beta \gamma & \gamma & 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)\cdotp \left(\begin{array}{llll}\gamma & -\beta \gamma & 0& 0\\ {}-\beta \gamma & \gamma & 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)& \\ {}& =\left(\begin{array}{llll}{\gamma}^2\left(1-{\beta}^2\right)& 0& 0& 0\\ {}0& {\gamma}^2\left(1-{\beta}^2\right)& 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)=\left(\begin{array}{llll}1& 0& 0& 0\\ {}0& 1& 0& 0\\ {}0& 0& 1& 0\\ {}0& 0& 0& 1\end{array}\right)={\delta}_{\nu}^{\mu}\end{array}} $$
(5.23)
wie gefordert. Die inverse Lorentz-Transformation zu einem Boost ist also, wie man erwarten konnte, ein Boost mit der negativen Geschwindigkeit −β. Für eine reine Raumdrehung ΛR aus (3.​20) ist mit DDT = DTD = 1 ebenfalls
$$ {\varLambda_{\lambda}}^{\mu }{\varLambda^{\lambda}}_{\nu }=\left(\begin{array}{ll}\hfill 1\hfill & \hfill 0\hfill \\ {}\hfill 0\hfill & \hfill {\boldsymbol{D}}^{\mathrm{T}}\hfill \end{array}\right)\cdotp \left(\begin{array}{ll}\hfill 1\hfill & \hfill 0\hfill \\ {}\hfill 0\hfill & \hfill \boldsymbol{D}\hfill \end{array}\right)={\delta}_{\nu}^{\mu }. $$
(5.24)
Die Menge aller Drehmatrizen bildet die Drehgruppe SO(3) (speziell orthogonale Gruppe), die Menge aller Lorentz-Matrizen die Lorentz-Gruppe O(3, 1). Dabei sind aber reine Verschiebungen des Koordinatenursprungs xμxμ + aμ noch nicht berücksichtigt. Wenn wir diese miteinbeziehen, dann gelangen wir zur Poincaré-Gruppe,1 die wie die Gruppe der Galilei-Transformationen 10 freie Parameter besitzt: drei Rotationen, drei Boosts, drei Verschiebungen und eine Zeittranslation. Die entsprechenden Transformationen sind dann die Poincaré-Transformationen.

5.2 Kontra- und kovariante Vektoren

Wir müssen die Zusammenhänge zwischen Größen mit Index oben und unten noch präzisieren. Sei aμV ein kontravarianter Vektor im Vektorraum V. Dann ist aμ = ημνaνV ein kovarianter Vektor und ein Element des Dualraumes V der 1-Formen, d. h.
$$ {\varphi}_a:V\to \mathbb{\mathbb{R}}\quad  \mathrm{ist}\ \mathrm{eine}\ \mathrm{lineare}\ \mathrm{Abbildung}\ \mathrm{mit}\quad  {a}_{\mu }:{b}^{\mu}\mapsto \left\langle \underline{\boldsymbol{a}},\underline{\boldsymbol{b}}\right\rangle ={a}_{\mu }{b}^{\mu}\in \mathbb{\mathbb{R}}. $$
(5.25)
Jede vierkomponentige Größe aμ, die sich unter Lorentz-Transformation mit der Lorentz-Matrix gemäß
$$ {a}^{\prime \mu }={\varLambda^{\mu}}_{\nu }{a}^{\nu } $$
(5.26)
transformiert, nennt man einen kontravarianten Tensor 1. Stufe . Sei aμ kontravarianter Vektor mit aμ = Λμνaν, dann gilt
$$ {a}_{\mu}^{\prime }={\eta}_{\mu \alpha}{a}^{\prime \alpha }={\eta}_{\mu \alpha}{\varLambda^{\alpha}}_{\nu }{a}^{\nu }={\eta}_{\mu \alpha}{\eta}^{\nu \beta}{\varLambda^{\alpha}}_{\nu }{a}_{\beta }={\varLambda_{\mu}}^{\beta }{a}_{\beta }, $$
(5.27)
mit der inversen Lorentz-Transformation Λμβ. Im zweiten Schritt haben wir dabei aν = ηνβaβ eingesetzt. Damit haben wir das Transformationsverhalten der Größe aβ hergeleitet. Jede vierkomponentige Größe, die sich mit der inversen Lorentz-Matrix transformiert gemäß
$$ {a}_{\mu}^{\prime }={\varLambda_{\mu}}^{\nu }{a}_{\nu } $$
(5.28)
heißt kovarianter Tensor 1. Stufe .

5.2.1 Transformationsverhalten der Differentiale und Koordinatenableitungen

Sei xμ ein kontravarianter Vektor. Es gilt dann
$$ {x}^{\prime \mu }={\varLambda^{\mu}}_{\nu }{x}^{\nu },\quad  \mathrm{also}\ \mathrm{auch}\quad  \mathrm{d}{x}^{\prime \mu }={\varLambda^{\mu}}_{\nu}\mathrm{d}{x}^{\nu }. $$
(5.29)
Die Differentiale dxμ tranformieren sich also wie kontravariante Vektoren.
Sei weiter f = f(xμ) eine skalare Funktion, dann gilt für ihr Differential
$$ \mathrm{d}f=\frac{\partial f}{\partial {x}^{\mu }}\mathrm{d}{x}^{\mu }. $$
(5.30)
Mit xμ = Λμνxν bzw. xν = Λμνxμ folgt
$$ \mathrm{d}f=\frac{\partial f}{\partial {x}^{\prime \mu }}\mathrm{d}{x}^{\prime \mu }=\frac{\partial f}{\partial {x}^{\nu }}\frac{\partial {x}^{\nu }}{\partial {x}^{\prime \mu }}\mathrm{d}{x}^{\prime \mu }=\left[{\varLambda_{\mu}}^{\nu}\frac{\partial }{\partial {x}^{\nu }}\right]f\mathrm{d}{x}^{\prime \mu }. $$
(5.31)
Ab jetzt schreiben wir für die Koordinatenableitungen verkürzt
$$ \frac{\partial }{\partial {x}^{\mu }}\equiv {\partial}_{\mu }={\left(\frac{1}{c}{\partial}_t,\nabla \right)}^{\mathrm{T}} $$
(5.32a)
und
$$ {\partial}^{\mu }={\eta}^{\mu \nu}{\partial}_{\nu }={\left(-\frac{1}{c}{\partial}_t,\nabla \right)}^{\mathrm{T}} $$
(5.32b)
mit dem Nabla-Operator ∇ = (x, y, z)T. Ein Vergleich der verschiedenen Ausdrücke in (5.31) zeigt, dass die Koordinatenableitungen μ sich wie kovariante Vektoren transformieren, d. h.
$$ {\partial}_{\mu}^{\prime }={\varLambda_{\mu}}^{\nu }{\partial}_{\nu } $$
(5.33a)
und entsprechend μ wie ein kontravarianter Vektor, d. h.
$$ {\partial}^{\prime \mu }={\varLambda^{\mu}}_{\nu }{\partial}^{\nu }. $$
(5.33b)
Dieser Eigenschaft trägt auch die Notation der Koordinatenableitungen mit Index unten Rechnung.

5.2.2 Tensoralgebra

Wir kommen in der SRT nicht mit ko- und kontravarianten Vektoren, also Tensoren 1. Stufe aus, wenn wir alle Phänomene beschreiben wollen. Die bisherigen Definitionen von kontra- und kovarianten Tensoren müssen wir deshalb verallgemeinern. Ein Tensor vom Typ (r, s) ist eine multilineare Abbildung
(5.34)
Dabei bezeichnen griechische Buchstaben Elemente des Dualraumes V, also kovariante Vektoren, und lateinische Buchstaben Elemente von V, d. h. kontravariante Vektoren. Die Größe T heißt r-fach kontra- und s-fach kovarianter Tensor. Gl. (5.34) ist die Verallgemeinerung des Skalarproduktes in (5.25).
Unter Multilinearität versteht man die Eigenschaft, linear in jedem Argument (bei Festhalten der übrigen) zu sein. Ein Tensor χ lässt sich also zerlegen in
$$ \boldsymbol{\chi} =a{\boldsymbol{\chi}}_1+b{\boldsymbol{\chi}}_2+\dots, $$
(5.35)
mit den Koeffizienten a, $$ b\in \mathbb{\mathbb{R}} $$ in unserem Fall. Die Menge aller Tensoren des Typs (r, s) bildet einen Vektorraum $$ {V}_s^r $$. In Indexschreibweise kann diese Abbildung in der Form
(5.36)
dargestellt werden. Dabei sind $$ {\varphi}_{\alpha_1}, $$ $$ {\chi}_{\alpha_2}, $$ …, $$ {\omega}_{\alpha_r} $$ kovariante Vektoren und $$ {u}^{\beta_1}, $$ $$ {v}^{\beta_2}, $$ …, $$ {w}^{\beta_s} $$ kontravariante Vektoren.
Wir können Tensoren auch so kombinieren, dass ein weiterer Tensor von anderem Typ dabei entsteht. Seien $$ \boldsymbol{T}\in {V}_s^r $$ und $$ \boldsymbol{S}\in {V}_{s\prime}^{r\prime } $$, dann können wir einen neuen Tensor
$$ \boldsymbol{T}\otimes \boldsymbol{S}\in {V}_s^r\times {V}_{s\prime}^{r\prime }={V}_{s+s\prime}^{r+r\prime }, $$
(5.37)
definieren, d. h. aus einem Tensor vom Typ (r, s) und einem Tensor (r′, s′) wird ein Tensor vom Typ (r + r′, s + s′) gebildet. Wir können diesen Zusammenhang auch in Indexschreibweise darstellen:
$$ {T^{\alpha_1\dots {\alpha}_r}}_{\beta_1\dots {\beta}_s}{S^{\alpha_1^{\prime}\dots {\alpha}_{r\prime}^{\prime}}}_{\beta_1^{\prime}\dots {\beta}_{s\prime}^{\prime }}={{{U^{\alpha_1\dots {\alpha}_r}}_{\beta_1\dots {\beta}_s}}^{\alpha_1^{\prime}\dots {\alpha}_{r\prime}^{\prime}}}_{\beta_1^{\prime}\dots {\beta}_{s\prime}^{\prime }}. $$
(5.38)
Die Operation ,,⊗“ heißt Tensorprodukt oder direktes Produkt .
Sei $$ \boldsymbol{T}\in {V}_s^r $$ wieder ein Tensor vom Typ (r, s). Indem in Komponentenschreibweise der k-te kovariante und der j-te kontravariante Index das gleiche Symbol bekommen und über diese zwei Indizes aufsummiert wird, erhält man einen Tensor aus $$ {V}_{s-1}^{r-1} $$:
$$ {T^{\alpha_1\dots {\alpha}_j\dots {\alpha}_r}}_{\beta_1\dots {\beta}_j\dots {\beta}_s}\in {V}_s^r\quad  \mathrm{und}\quad  {T^{\alpha_1\dots {\beta}_j\dots {\alpha}_r}}_{\beta_1\dots {\beta}_j\dots {\beta}_s}={\mathrm{Sp}}_j^kT\in {V}_{s-1}^{r-1}. $$
(5.39)
Diese Operation heißt Tensorverjüngung oder Kontraktion .
Wir betrachten diese Definitionen an einigen Beispielen. Seien aμ und $$ {b}^{\mu}\in {V}_0^1 $$ kontravariante Vierervektoren. Dann ist
  • $$ {\eta}_{\mu \nu}{a}^{\nu }={a}_{\mu}\in {V}_1^0 $$ ein kovarianter Vektor,

  • $$ {a}^{\mu }{b}^{\nu}\in {V}_0^2 $$ ein direktes Produkt und kontravarianter Tensor 2. Stufe,

  • $$ {c^{\mu}}_{\nu }={a}^{\mu }{b}_{\nu}\in {V}_1^1 $$ ein direktes Produkt und einfach kontra-, einfach kovarianter Tensor,

  • $$ {c^{\mu}}_{\mu }={a}^{\mu }{b}_{\mu}\in {V}_0^0=\mathbb{\mathbb{R}} $$ eine Kontraktion und Tensor 0. Stufe, d. h. ein Skalar (s. Abschn. 5.2.4)

Mehr zur Tensorrechnung besprechen wir in Abschn. 11.​2 im Rahmen der allgemeinen Relativitätstheorie.

5.2.3 Tensoreigenschaft des Differentialoperators

Der Begriff ,,Tensor“ ist abstrakt. Einigen Tensoren sind wir bereits begegnet, so sind Vierervektoren, d. h. Vektoren aus $$ {\mathbb{\mathbb{R}}}^{1,3} $$ Tensoren, und natürlich sind auch die Lorentz-Transformationen Λμν und $$ {\eta}_{\mu \nu}=\operatorname{diag}\left(-1,\,    1,\,    1,\,    1\right) $$ Tensoren.

Neu hingegen ist die Tensoreigenschaft des Differentialoperators :
$$ {\partial}_{\mu }=\frac{\partial }{\partial {x}^{\mu }}=\left(\frac{\partial }{\partial (ct)},\frac{\partial }{\partial x},\frac{\partial }{\partial y},\frac{\partial }{\partial z}\right), $$
(5.40)
welcher auch Vierergradient heißt. Bei Anwendung des Vierergradienten auf einen Lorentz-Skalar φ ergibt sich ein kovarianter Vektor:
$$ {\partial}_{\mu}\varphi \equiv {\varphi}_{,\mu }. $$
(5.41)
Dabei haben wir an dieser Stelle die Schreibweise X,μ für die Differentiation nach den Koordinaten eingeführt, die im Folgenden parallel zur Notation μX benutzt wird. Bei Anwendung auf einen Vierervektor aμ ergibt sich dagegen ein Lorentz-Skalar:
$$ {\partial}_{\mu }{a}^{\mu }. $$
(5.42)
Dieser Ausdruck wird auch als Viererdivergenz bezeichnet. Weiter ist
$$ {\partial}_{\mu }{a}_{\nu }-{\partial}_{\nu }{a}_{\mu } $$
(5.43)
ein antisymmetrischer, kovarianter Tensor 2. Stufe und heißt Viererrotation .

5.2.4 Eigenzeit

Betrachten wir im Minkowski-Raum nur infinitesimale Abstände, so lautet das daraus resultierende infinitesimale Abstandsquadrat
$$ \mathrm{d}{s}^2=-{c}^2\mathrm{d}{t}^2+\mathrm{d}{x}^2+\mathrm{d}{y}^2+\mathrm{d}{z}^2=-{c}^2\mathrm{d}{t}^2+\mathrm{d}{\boldsymbol{x}}^2 $$
(5.44)
mit den raumartigen Abständen dx, dy, dz, und dem zeitartigen Abstand dt (s. a. (5.7)). Der Ausdruck ds2 = dxμdxμ = ημνdxμdxν mit xμ = (ct, x, y, z) wird auch als infinitesimales Weg- bzw. Linienelement bezeichnet und ist ebenfalls invariant unter Lorentz-Transformationen.
Für einen Beobachter, der sich entlang einer Weltlinie mit Geschwindigkeit v(t) bewegt, gilt insbesondere dxv(t)dt. Das Linienelement (5.44) lautet damit
$$ \mathrm{d}{s}^2=-{c}^2\left(1-\frac{\boldsymbol{v}{(t)}^2}{c^2}\right)\mathrm{d}{t}^2=-{c}^2\left(1-\beta {(t)}^2\right)\mathrm{d}{t}^2. $$
(5.45)
Ist seine Geschwindigkeit β = 0, so entspricht ds2 = −c2dt2. Da man immer ein instantanes Ruhsystem für den Beobachter findet, gilt allgemein ds2 = −c2dτ2 mit der Eigenzeit τ, die selber wiederum ein Lorentz-Skalar ist.
Vergleicht man die Eigenzeit τ eines Beobachters, der sich momentan mit Geschwindigkeit β bezogen auf ein System ruhender synchronisierter Uhren bewegt, mit der Zeit dieser Uhren, so können wir aus (5.45) schließen, dass
$$ -{c}^2\left(1-{\beta}^2\right)\mathrm{d}{t}^2=-{c}^2\mathrm{d}{\tau}^2\quad  \mathrm{bzw}.\quad  \mathrm{d}\tau =\sqrt{1-{\beta}^2}\,    \mathrm{d}t=\frac{1}{\gamma}\mathrm{d}t. $$
(5.46)
Da γ ≥ 1 ist, vergeht die Zeit für den bewegten Beobachter langsamer als für das System ruhender synchronisierter Uhren.