\( \def\vec#1{\bf{\underline{#1}}} \) Im folgenden wird eine Matrix ${\rm\bf A}$ als ein System von Spaltenvektoren aufgefasst: \begin{equation*} %\label{XYZ} \mathbf{A} \!=\!\! \begin{pmatrix} a_{11} &a_{12} \!&\!\dots\! &\!a_{1n}\\ &&\vdots \\ a_{m1} &a_{m2} \!&\!\dots \!&\!a_{mn} \end{pmatrix} \!=\! \begin{pmatrix} \!\!\begin{pmatrix}a_{11}\\ \vdots\\ a_{m1} \end{pmatrix} \!\!\begin{pmatrix}a_{12} \\\vdots\\ a_{m2} \end{pmatrix} \!\dots\! \!\!\begin{pmatrix}a_{1n} \\\vdots\\ a_{mn} \end{pmatrix} \!\! \end{pmatrix} \!\!=\!\! \begin{pmatrix} \vec{a}_1 \ \vec{a}_2 \dots \vec{a}_n \end{pmatrix}. \end{equation*} Jeder Spaltenvektor $\vec{a}_j$ ist dann von der folgenden Form \begin{equation*} %\label{XYZ} \vec{a}_j = \begin{pmatrix}a_{1j}\\ \vdots\\ a_{mj} \end{pmatrix}. \end{equation*} Entsprechend kann jede Matrix als ein System von Zeilenvektoren aufgefasst werden: \begin{equation*} %\label{XYZ} \mathbf{A} = \begin{pmatrix} a_{11} &\dots &a_{1n}\\ a_{21} &\dots &a_{2n}\\ \vdots &&\vdots\\ a_{m1} &\dots &a_{mn} \end{pmatrix} = \begin{pmatrix} \left(a_{11}\right. &&\left. a_{1n}\right)\\ \left(a_{21}\right. &&\left. a_{2n}\right)\\ &\vdots &\\ \left(a_{m1}\right. &&\left. a_{mn}\right)\\ \end{pmatrix} = \begin{pmatrix} \vec{a}_1\\ \vdots\\ \vec{a}_m \end{pmatrix}. \end{equation*} Jeder Zeilenvektor $\vec{a}_j$ ist von der Form \begin{equation*} %\label{XYZ} \vec{a}_j = \left( a_{j1} \ \dots \ a_{jn}\right). \end{equation*}

Häufig kann ein Vektor $\vec{x}$ als Linearkombination anderer Vektoren dargestellt werden. Das heißt, können wir einen neuen Vektor $\vec{x}$ darstellen, indem zwei Vektoren $\vec{x}_1$ und $\vec{x}_2 $ mit einer Zahl/Skalar $\alpha_{i}$ multipliziert und die resultierenden Vektoren miteinander addiert werden, dann wird der resultierende Vektor $\vec{x}$ als Linearkombination der Vektoren $\vec{x}_1$ und $\vec{x}_2 $ bezeichnet. Seien im zweidimensionalen Raum $\mathbb{R}^2$ die Vektoren \begin{equation*} \vec{x}_1=\begin{pmatrix} 2\\ 3 \end{pmatrix}, \vec{x}_2=\begin{pmatrix} 1\\ 0 \end{pmatrix}, \vec{x}_3=\begin{pmatrix} 0\\ 1 \end{pmatrix} \end{equation*} gegeben, so kann beispielsweise der Vektor $\underline{x}_1$ als Linearkombination der beiden anderen Vektoren $\underline{x}_2$ und $\underline{x}_3$ dargestellt werden: \begin{equation*} \begin{pmatrix} 2\\ 3 \end{pmatrix} = 2 \cdot \begin{pmatrix} 1\\ 0 \end{pmatrix} + 3 \cdot \begin{pmatrix} 0\\ 1 \end{pmatrix}. \end{equation*}
Definition [Lineare Abhängigkeit]

Eine Menge von Vektoren $\vec{x}_1, \vec{x}_2, ..., \vec{x}_n$ heißt linear abhängig, wenn mindestens einer der Vektoren als Linearkombination der anderen dargestellt werden kann.

Definition: [Lineare Unabhängigkeit]

Eine Menge von Vektoren $\vec{x}_1, \vec{x}_2, ..., \vec{x}_n$ heißt linear unabhängig, wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Aus dem Gleichungssystem \begin{equation*} %\label{XYZ} \vec 0 = \alpha_1\vec{x}_1 + ... + \alpha_n\vec{x}_n \end{equation*} folgt dann: \begin{equation*} %\label{XYZ} \alpha_1 = \alpha_2 = ... = \alpha_n = 0. \end{equation*}
Gehen wir beispielsweise von den folgenden Vektoren \begin{equation*} \vec{x}_1=\begin{pmatrix} 1\\ 0\\ 0 \end{pmatrix}, \vec{x}_2=\begin{pmatrix} 0\\ 1\\ 0 \end{pmatrix}, \vec{x}_3=\begin{pmatrix} 0\\ 0\\ 1\\ \end{pmatrix} \end{equation*} im dreidimensionalen Raum $\mathbb{R}^3$ aus, so ist keiner der gegebenen Vektoren als Linearkombination der übrigen zwei Vektoren darstellbar. Wäre aber mindestens ein $\alpha_i$, also z.B. $\alpha_1$, ungleich null, so kann die Gleichung wie folgt umgeformt werden: \begin{equation*} %\label{XYZ} \vec{x}_1 = - {1 \over \alpha_1} (\alpha_2\vec{x}_2 + ... + \alpha_n\vec{x}_n). \end{equation*} Der Vektor $\vec{x}_1$ könnte dann als Linearkombination der anderen Vektoren geschrieben werden und die Vektoren wären somit linear abhängig. \\

Beispiel

Die Vektoren $\left\{ \begin{pmatrix}1\\ 0\end{pmatrix} , \begin{pmatrix} 0\\ 1\end{pmatrix} \right\}$ sind linear unabhängig, da aus

\begin{equation*} \alpha_1 \begin{pmatrix} 1\\ 0\end{pmatrix} + \alpha_2 \begin{pmatrix}0\\ 1 \end{pmatrix}= \vec 0 ~\mbox{ folgt:} \end{equation*} \begin{equation*} %\label{XYZ} \begin{matrix}1 \cdot \alpha_1 &+ &0\cdot \alpha_2 &= &0 &\Longrightarrow &\alpha_1 &= &0\cr 0 \cdot \alpha_1 &+ &1 \cdot \alpha_2 &= &0 &\Longrightarrow &\alpha_2 &= &0.\cr\end{matrix} \end{equation*}
Beispiel

Die Vektoren $\left\{ \begin{pmatrix}1\\0 \\ 0\end{pmatrix}, \begin{pmatrix} 0\\1\\ 0\end{pmatrix}, \begin{pmatrix} 0\\0\\ 1\end{pmatrix} \right\}$ sind linear unabhängig, da aus

\begin{equation*} \alpha_1 \begin{pmatrix} 1\\0\\0\end{pmatrix} + \alpha_2 \begin{pmatrix}0\\ 1\\ 0 \end{pmatrix} + \alpha_3 \begin{pmatrix}0\\0\\ 1 \end{pmatrix} = \vec 0 ~\mbox{ folgt:}\end{equation*} \begin{equation*} %\label{XYZ} \begin{matrix} 1 \cdot \alpha_1 &+ &0\cdot \alpha_2&+ &0\cdot \alpha_3 &= &0&\Longrightarrow &\alpha_1 &= 0 \cr 0 \cdot \alpha_1 &+ &1 \cdot \alpha_2 &+ &0\cdot \alpha_3 &= &0 &\Longrightarrow &\alpha_2 &=0 \cr 0 \cdot \alpha_1 &+ &0 \cdot \alpha_2 &+ &1\cdot \alpha_3 &= &0 &\Longrightarrow &\alpha_3 &=0. \cr \end{matrix} \end{equation*}

Zeigen Sie, dass die folgenden n Vektoren (mit $a_{ii}\ne 0$ , $i=1,\dots , n$) linear unabhängig sind. $$\left\{ \begin{pmatrix}a_{11}\\a_{21}\\a_{31}\\a_{41}\\ a_{51}\\ \vdots\\ a_{n1}\end{pmatrix}, \begin{pmatrix} 0\\a_{22}\\a_{32}\\a_{42}\\ a_{52}\\ \vdots\\ a_{n2}\end{pmatrix}, \begin{pmatrix} 0\\ 0\\a_{33}\\a_{43}\\ a_{53}\\ \vdots\\ a_{n3}\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 0 \\a_{44}\\ a_{54}\\ \vdots\\ a_{n4}\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 0 \\ 0\\ a_{55}\\ \vdots\\ a_{n5}\end{pmatrix}, \dots \dots \begin{pmatrix} 0\\ 0\\ 0\\ 0\\ 0 \\ \vdots\\ a_{nn}\end{pmatrix} \right\}$$

Aus $$ \alpha_1\cdot\begin{pmatrix}a_{11}\\a_{21}\\a_{31}\\a_{41}\\ a_{51}\\ \vdots\\ a_{n1}\end{pmatrix}+ \alpha_2\cdot\begin{pmatrix} 0\\a_{22}\\a_{32}\\a_{42}\\ a_{52}\\ \vdots\\ a_{n2}\end{pmatrix}+ \alpha_3\cdot\begin{pmatrix} 0\\ 0\\a_{33}\\a_{43}\\ a_{53}\\ \vdots\\ a_{n3}\end{pmatrix}+ \alpha_4\cdot\begin{pmatrix} 0\\ 0\\ 0 \\a_{44}\\ a_{54}\\ \vdots\\ a_{n4}\end{pmatrix}+ \dots + \alpha_n\cdot\begin{pmatrix} 0\\ 0\\ 0\\ 0\\ 0 \\ \vdots\\ a_{nn}\end{pmatrix} =\vec 0 $$ folgt: $$\begin{matrix} a_{11}\cdot\alpha_1 &+ &0\cdot \alpha_2&+ &0\cdot \alpha_3 & + \dots+ &0\cdot \alpha_n= &0&\Longrightarrow &\alpha_1 = 0 \cr a_{21}\cdot\alpha_1 &+ &a_{22} \cdot \alpha_2 &+ &0\cdot \alpha_3 &+ \dots+ &0\cdot \alpha_n= &0 &\Longrightarrow &\alpha_2 =0 \cr a_{31}\cdot\alpha_1 &+ &a_{32} \cdot \alpha_2 &+ &a_{33}\cdot \alpha_3 &+ \dots+ &0\cdot \alpha_n= &0 &\Longrightarrow &\alpha_3 =0 \cr \cdots \cr a_{31}\cdot\alpha_1 &+ &a_{32} \cdot \alpha_2 &+ &a_{33}\cdot \alpha_3 &+ \dots+ &a_{nn}\cdot \alpha_n= &0 &\Longrightarrow &\alpha_n =0. \end{matrix}$$ Damit sind die Vektoren nach Definition linear unabhängig.
Im obigen Satz wurde vorausgesetzt, dass $a_{ii}\ne 0$ , $i=1,\dots , n$), die $a_{ij} \mbox{ mit } i\ne j$ können also auch Null sein. Damit ergibt sich unmittelbar, dass die folgenden n Vektoren (mit $a_{ii}\ne 0$ , $i=1,\dots , n$) linear unabhängig sind: $$\left\{ \begin{pmatrix}a_{11}\\ 0\\ 0\\ 0\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\a_{22}\\ 0\\ 0\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 0\\a_{33}\\ 0\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 0 \\a_{44}\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 0 \\ 0\\ a_{55}\\ \vdots\\ 0\end{pmatrix}, \dots \dots \begin{pmatrix} 0\\ 0\\ 0\\ 0\\ 0 \\ \vdots\\ a_{nn}\end{pmatrix} \right\}$$ Dann gilt die lineare Unabhängigkeit insbesondere bei: $$\left\{ \begin{pmatrix} 1\\ 0\\ 0\\ 0\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 1\\ 0\\ 0\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 1\\ 0\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 0 \\ 1\\ 0\\ \vdots\\ 0\end{pmatrix}, \begin{pmatrix} 0\\ 0\\ 0 \\ 0\\ 1\\ \vdots\\ 0\end{pmatrix}, \dots \dots \begin{pmatrix} 0\\ 0\\ 0\\ 0\\ 0 \\ \vdots\\ 1\end{pmatrix} \right\}$$

Rang einer Matrix

Eine Matrix kann als ein System einzelner Spalten- oder Zeilenvektoren verstanden werden, deren lineare Unabhängigkeit bestimmt werden kann.Die Anzahl der linear unhängigen Spaltenvektoren ist eine Kenngröße für Matrizen, die uns später Aufschluß über die Lösbarkeit von inhomogenen linearen Gleichungssystemen gibt.
Definition:[Rang einer Matrix]

Der Rang einer Matrix ${\rm \bf A}$ gibt die maximale Anzahl linear unabhängiger Spaltenvektoren bzw. Zeilenvektoren an.Der Rang der Matrix ${\rm \bf A}$ wird mit rang(${\rm \bf A}$=r) bezeichnet.
In jeder Matrix ist die maximale Anzahl linear unabhängiger Zeilen auch die Anzahl linear unabhängiger Spalten. Ist die maximale Anzahl linear unabhängiger Zeilen die Zahl $r$, dann ist diese Zahl auch die Anzahl linear unabhängiger Spalten. Verbal: Die Matrix ist vom Rang $r$.\\

Bemerkung: Für den Rang einer Matrix ist es unerheblich, ob die Spaltenvektoren oder Zeilenvektoren betrachtet werden, da der Rang der Matrix beim Transponieren erhalten bleibt. Formal gilt: \begin{equation*} %\label{XYZ} rang ({\rm \bf A}) = rang ({\rm \bf A^T}). \end{equation*} Der Rang einer $m\times n$-Matrix kann höchstens n oder m sein, je nachdem ob $m