% 
% Lineare Algebra II (B2)
% Oliver Schn\"urer
% Uni Konstanz, Sommer 2011, Sommer 2013
%
\documentclass[a4paper,draft]{amsart}
%\usepackage{fullpage}
\usepackage{citesort}
\usepackage{amssymb,amsmath}
\usepackage{ngerman}
\usepackage[arrow,curve,matrix,tips]{xy}
% Hilfe: xypic-xygraph-tutorial.pdf
%\usepackage[notref,notcite]{showkeys} 
\usepackage{enumerate}
%\usepackage[T1]{fontenc}
%\usepackage[latin1]{inputenc}
%\usepackage{a4}
%\CompileMatrices
%\xymatrixnocompile schaltet dies fuer eine einzelne Matrix aus.

%\usepackage[a4paper,twoside,includeheadfoot,%
%inner=1.0cm,outer=1.0cm,top=1.0cm,bottom=1.0cm]{geometry}

\DeclareMathOperator{\tr}{tr}
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\diag}{diag}
\DeclareMathOperator{\diam}{diam}
\DeclareMathOperator{\dist}{dist}
\DeclareMathOperator{\Image}{Im}
\DeclareMathOperator{\supp}{supp}
\DeclareMathOperator{\graph}{graph}
\DeclareMathOperator*{\fueralle}{\forall}
\DeclareMathOperator*{\existiert}{\exists}
\DeclareMathOperator{\interior}{int}
\DeclareMathOperator{\id}{id}
\DeclareMathOperator{\Id}{Id}
\DeclareMathOperator{\im}{im}
\DeclareMathOperator{\rang}{rang}
\DeclareMathOperator{\ind}{ind}
\DeclareMathOperator{\Null}{null}
\DeclareMathOperator{\divergenz}{div}
\DeclareMathOperator{\Iso}{Iso}
\DeclareMathOperator{\Hom}{Hom}
\DeclareMathOperator{\End}{End}
\DeclareMathOperator{\sign}{sign}
\DeclareMathOperator{\Real}{Re}
\DeclareMathOperator{\Imag}{Im}
\DeclareMathOperator{\Aut}{Aut}
\DeclareMathOperator{\Sym}{Sym}
\DeclareMathOperator{\Alt}{Alt}
\DeclareMathOperator{\charak}{char}
\DeclareMathOperator{\ggT}{ggT}
\DeclareMathOperator{\kgV}{kgV}
\DeclareMathOperator{\modulo}{mod}
\DeclareMathOperator{\rk}{rk}
\DeclareMathOperator{\Ann}{Ann}
\def\GL{Gl}
\def\ol#1{\overline{#1}}
\def\ul#1{\underline{#1}}
\def\R{{\mathbb{R}}}
\def\N{{\mathbb{N}}}
\def\C{{\mathbb{C}}}
\def\S{{\mathbb{S}}}
\def\T{{\mathbb{T}}}
\def\Q{{\mathbb{Q}}}
\def\Z{{\mathbb{Z}}}
\def\O{{\mathcal{O}}}
\def\P{{\mathcal{P}}}
\def\B{{\mathcal{B}}}
\def\U{{\mathcal{U}}}
\def\F{{\mathcal{F}}}
\def\M{{\mathcal{M}}}
\def\theta{{\vartheta}}
\def\phi{{\varphi}}
\def\epsilon{{\varepsilon}}
\def\dt{{\frac{d}{dt}}}
\def\fracd#1#2{{\frac{\displaystyle #1}{\displaystyle #2}}}
\def\fracp#1#2{{\frac{\partial #1}{\partial #2}}}
\def\fracpd#1#2{{\frac{\displaystyle\partial #1}
    {\displaystyle\partial #2}}}
\def\tfracp#1#2{{\tfrac{\partial #1}{\partial #2}}}
\long\def\umbruch{{\displaybreak[1]}}
\long\def\neueZeile{{\rule{0mm}{1mm}\\[-3.25ex]\rule{0mm}{1mm}}}
\long\def\neueZeilealt{{\rule{0mm}{1mm}\\\rule{0mm}{1mm}}}
\def\dh{d.\,h.\ }
\def\impliziert{\text{ }\ensuremath{\Longrightarrow}\text{ }}
\def\folgtaus{\text{ }\ensuremath{\Longleftarrow}\text{ }}
\def\aequivalent{\text{ }\ensuremath{\Longleftrightarrow}\text{ }}
\def\Hinrichtung{\glqq\ensuremath{\Longrightarrow}\grqq:\text{ }}
\def\Rueckrichtung{\glqq\ensuremath{\Longleftarrow}\grqq:\text{ }}
\def\eins{\mbox{\ensuremath{1\hspace*{-0.9ex}1}}}
\def\interior#1{\overset{{}_\circ}{#1}}
%\newcommand{\margincomment}[1]{\marginpar{\footnotesize{#1}}}
\def\gap{\rule{2cm}{1ex}}
\def\emph#1{\textbf{#1}}
\def\bzw{bzw.{} }
\def\zB{z.\,B.{} }
 
\mathchardef\ordinarycolon\mathcode`\:
  \mathcode`\:=\string"8000
  \begingroup \catcode`\:=\active
    \gdef:{\mathrel{\mathop\ordinarycolon}}
  \endgroup

%\newtheorem{theorem}{Theorem}[chapter]
\newtheorem{theorem}{Theorem}[subsection]
\newtheorem{lemma}[theorem]{Lemma}
\newtheorem{satz}[theorem]{Satz}
\newtheorem{proposition}[theorem]{Proposition}
\newtheorem{corollary}[theorem]{Korollar}

\theoremstyle{definition}
\newtheorem{definition}[theorem]{Definition}
\newtheorem{example}[theorem]{Beispiel}
\newtheorem{beispiel}[theorem]{Beispiel}
\newtheorem{beispiele}[theorem]{Beispiele}
\newtheorem{xca}[theorem]{\"Ubung}
\newtheorem{notation}[theorem]{Notation}

\newtheorem{aufgabe}{Aufgabe}[section]
%\theoremstyle{remark}
\newtheorem{remark}[theorem]{Bemerkung}
\newtheorem{bemerkung}[theorem]{Bemerkung}
\newtheorem{herleitung}[theorem]{Herleitung}
\newtheorem{euklalg}[theorem]{Euklidischer Algorithmus}

%\numberwithin{section}{chapter}
%\numberwithin{equation}{chapter}
\numberwithin{equation}{section}
\setcounter{tocdepth}{1}

%    Absolute value notation
\newcommand{\abs}[1]{\left\lvert#1\right\rvert}

%    Blank box placeholder for figures (to avoid requiring any
%    particular graphics capabilities for printing this document).
\newcommand{\blankbox}[2]{%
   \parbox{\columnwidth}{\centering
%    Set fboxsep to 0 so that the actual size of the box will match the
%    given measurements more closely.
     \setlength{\fboxsep}{0pt}%
     \fbox{\raisebox{0pt}[#2]{\hspace{#1}}}%
   }%
}

\hyphenation{Du-al-raum Nor-men Gleich-heit Kom-pakt-heits-satz 
  Viel-fach-heit Funk-tion Funk-tion-en}

\begin{document}
\title{Lineare Algebra II}

%    Information for first author
\author{Oliver C. Schn\"urer}
%    Address of record for the research reported here
\address{Oliver C. Schn\"urer, Fachbereich Mathematik und Statistik,
  Universit\"at Konstanz, 78457 Konstanz, Germany}
%    Current address
\curraddr{}
\def\AmSeeHome{@uni-konstanz.de}
\email{Oliver.Schnuerer\AmSeeHome}
%    \thanks will become a 1st page footnote.
\thanks{}

%    General info
%\subjclass[2000]{53-01}

\date{\today.}

\dedicatory{}

\keywords{}

%\setlength{\parindent}{0pt}
%\setlength{\parskip}{0.5em}

\begin{abstract}
  Bei diesem Manuskript handelt es sich um Notizen zu einer Vorlesung
  Lineare Algebra II (B2) an der Universit\"at Konstanz im
  Sommersemester 2011 und im Sommersemester 2013.\par
  Vielen Dank an Mario Kummer, Wolfgang Maurer und Olaf Schn\"urer
  f\"ur Korrekturen und Verbesserungsvorschl\"age.
\end{abstract}

\maketitle

\tableofcontents

% Spezielle Kopfzeilen
\long\def\Section#1{\section{#1} \def\abschnitt{#1}}
\long\def\Subsection#1{\subsection{#1} \def\unterabschnitt{#1}}
\markboth{\scriptsize{\textsc{\thesection.{} \MakeUppercase{\abschnitt}}}}
{\scriptsize{\textsc{\thesubsection.{} \MakeUppercase{\unterabschnitt{}}}}}

Wir benutzen
\cite{FischerLA,StammbachLA,BoschLA,BoschAlgebra,LangAlgebra,wiki} und
f\"ur den Teil \"uber Ringe und Moduln insbesondere
\cite{ScheidererLA}.

\Section{Der Dualraum}
\Subsection{Kovariante Schreibweise}

\begin{remark}
  Seien $F$ ein K\"orper und $V,\,W$ endlichdimensionale
  $F$-Vek\-tor\-r\"au\-me. Sei $f\colon V\to W$ linear. Seien
  $v_1,\ldots,v_n$ eine Basis von $V$ und $w_1,\ldots,w_m$ eine Basis
  von $W$. Dann gibt es $\left(a^j_i\right)_{\genfrac{}{}{0pt}{}{1\le
      j\le m}{1\le i\le n}}$ mit \[f(v_i)=\sum\limits_{j=1}^m
  a^j_iw_j.\] Sei $\xi\in V$ mit $\xi=\sum\limits_{i=1}^n
  \xi^iv_i$. Dann folgt \[f(\xi) =f\left(\sum\limits_{i=1}^n
    \xi^iv_i\right) =\sum\limits_{i=1}^n \xi^i f(v_i)
  =\sum\limits_{i=1}^n \xi^i \sum\limits_{j=1}^m a^j_iw_j
  =\sum\limits_{j=1}^m\left(\sum\limits_{i=1}^n
    \xi^ia^j_i\right)w_j.\] Somit sind die Koordinaten
  $\left(\zeta^j\right)_{1\le j\le m}$ von $f(\xi)$ bez\"uglich der
  Basis $w_1,\ldots,w_m$, so dass also $f(\xi)=\sum\limits_{j=1}^m
  \zeta^jw_j$ gilt, durch $\zeta^j=\sum\limits_{i=1}^n\xi^ia^j_i
  =\sum\limits_{i=1}^n a^j_i\xi^i$ gegeben. In Matrixschreibweise
  erhalten wir
  \[
  \begin{pmatrix}
    \zeta^1\\
    \zeta^2\\
    \vdots\\
    \zeta^m
  \end{pmatrix}
  =
  \begin{pmatrix}
    a^1_1 & a^1_2 & \ldots & a^1_n\\
    a^2_1 & a^2_2 & \ldots & a^2_n\\
    \vdots & \vdots & \ddots & \vdots\\
    a^m_1 & a^m_2 & \ldots & a^m_n
  \end{pmatrix}
  \begin{pmatrix}
    \xi^1\\ \xi^2\\ \vdots\\ \xi^n
  \end{pmatrix}.
  \]
  In dieser Schreibweise beinhalten Summationen stets einen oberen und
  einen unteren Index. 
\end{remark}

\Subsection{Dualraum}
\begin{definition}
  Abbildungen $f\in\Hom(V,F)$ hei\ss{}en (lineare) Funktionale auf
  $V$.\par Wir schreiben $V^*:=\Hom(V,F)$. $V^*$ hei\ss{}t der zu $V$
  duale Raum. 
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Nach Wahl einer Basis $(a_1,\ldots,a_n)$ von $V$ und
    bez\"uglich der Basis $1$ von $F$ hat ein lineares Funktional die
    Gestalt \[f\left(\sum\limits_{i=1}^nx^ia_i\right)=\sum\limits_{i=1}^n
    x^if(a_i).\] Wir bezeichnen die Abbildung $F^n\ni(x^1,\ldots,x^n)
    \mapsto\sum\limits_{i=1}^n x^if(a_i)$ auch als Linearform. 
  \item F\"ur $0\neq f\in V^*=\Hom(V,F)$ mit $\dim V=n$ gilt $\dim\ker
    f=n-1$, da $\dim\im f=1$ und $\dim\im f+\dim\ker f=n$ gelten.  
  \item Habe $V$ die Basis $(a_1,\ldots,a_n)$. Dann bilden die
    Vektoren $f^i\in V^*$ mit $f^i(a_k)=\delta^i_k$ eine Basis von
    $V^*$. Wir schreiben auch $(a^*)^i=f^i$. F\"ur
    $b=\sum\limits_{i=1}^n x^ia_i$ gilt
    \[(a^*)^j(b) =\sum\limits_{i=1}^n x^i(a^*)^j(a_i)
    =\sum\limits_{i=1}^n x^i\delta^j_i =x^j.\] 
  \end{enumerate}
\end{remark}

\begin{definition}[Duale Abbildung]
  Sei $f\colon V\to W$ linear. Dann definieren wir die duale Abbildung
  $f^*\colon W^*\to V^*$ zu $f$ durch $f^*(\phi):=\psi$ mit
  $\psi(\xi)=\phi(f(\xi))$ f\"ur $\phi\in W^*$ und $\xi\in V$.
  \[\xymatrix{V\ar[r]^-f\ar[dr]_-{f^*(\phi)} &W\ar[d]^-\phi\\ &F.}\]
  (Es folgt aus der Definition, dass $f^*(\phi)\in V^*$ gilt und dass
  $f^*$ linear ist.)
\end{definition}

\begin{lemma}
  Sei $f\colon V\to W$ durch die $(m\times n)$-Matrix
  $A=\left(a^i_j\right)_{\overset{1\le i\le m}{1\le j\le n}}$
  bez\"uglich Basen $(a_i)_{1\le i\le n}$ und $(b_j)_{1\le j\le m}$
  von $V$ bzw.{} $W$ dargestellt. Dann ist $f^*\colon W^*\to V^*$
  durch die $(m\times n)$-Matrix $\left(b^i_j\right)_{\overset{1\le
      i\le m}{1\le j\le n}}$ mit $b^i_j=a^i_j$ bez\"uglich der Basen
  $\left((b^*)^j\right)_{1\le j\le m}$ und $\left((a^*)^i\right)_{1\le
    i\le n}$ in dem Sinne dargestellt, dass
  $f^*\left((b^*)^j\right)=\sum\limits_{i=1}^n b^j_i(a^*)^i$ f\"ur
  alle $1\le j\le m$ gilt.\par F\"ur die Koordinaten erhalten wir die
  Abbildung \[(\xi_1,\ldots,\xi_m)\mapsto \left(\sum\limits_{j=1}^m
    \xi_jb^j_i\right)_{1\le i\le n}.\]
\end{lemma}
\begin{proof}[Beweis]
  Nach Definition gilt
  \begin{align*}
    \left(f^*\left(\left(b^*\right)^j\right)\right)(a_k)
    =&\,\left((b^*)^j\circ f\right)(a_k)
    =(b^*)^j\left(\sum\limits_{i=1}^m a^i_kb_i\right)\\
    =&\,\sum\limits_{i=1}^ma^i_k(b^*)^jb_i
    =\sum\limits_{i=1}^ma^i_k\delta^j_i =a^j_k.
  \end{align*}
  Aus $f^*\left((b^*)^j\right) =\sum\limits_{l=1}^n b^j_l(a^*)^l$
  folgt andererseits
  \[\left(f^*\left(\left(b^*\right)^j\right)\right)(a_k)
    =\sum\limits_{l=1}^n b^j_l(a^*)^l(a_k) =\sum\limits_{l=1}^n
    b^j_l\delta^l_k =b^j_k.\] Die Behauptung f\"ur die Koordinaten
    ergibt sich direkt aus der Linearit\"at.
\end{proof}

\begin{remark}
  Achtung, in der Darstellung als Matrix haben wir soeben \"uber
  andere Indices als f\"ur Abbildungen $f\colon V\to W$ summiert. Die
  Koordinaten ver\"andern sich folglich nach der Regel
  \[(\xi_1,\ldots,\xi_m)\mapsto
  (\xi_1,\ldots,\xi_m)
  \begin{pmatrix}
    b^1_1&\ldots&b^1_n\\
    \vdots&&\vdots\\
    b^m_1&\ldots&b^m_n
  \end{pmatrix}.
  \]
  Beachte dazu, dass wir die Basisvektoren von $V^*$ anders als die
  von $V$ oben indiziert haben. Die Koordinaten haben wir folglich
  unten indiziert. Somit handelt es sich um Zeilenvektoren. \par
  In der Literatur weit verbreitet ist aber die (aus
  Kovarianzgr\"unden nicht so saubere) Variante, auch diese
  Koordinaten als Spaltenvektoren zu schreiben, Indices generell unten
  anzubringen und den oberen Index einer Matrix an die erste Stelle zu
  senken, also $a_{ij}$ statt $a^i_j$ zu verwenden. Dann gilt f\"ur
  die Komponenten unter $f^*$ die Abbildungsregel
  \[
  \begin{pmatrix}
    \xi_1\\
    \vdots\\
    \xi_m
  \end{pmatrix}
  \mapsto
  \begin{pmatrix}
    b_{11}&\ldots&b_{m1}\\
    \vdots&&\vdots\\
    b_{1n}&\ldots&b_{mn}
  \end{pmatrix}
  \begin{pmatrix}
    \xi_1\\
    \vdots\\
    \xi_m
  \end{pmatrix}.
  \]
  Wie man sich leicht \"uberzeugt sind die Eintr\"age im so erhaltenen
  Spaltenvektor dieselben wie beim Zeilenvektor. Hier ist nun die
  darstellende Matrix die Matrix $A^T$, die transponierte Matrix, die
  f\"ur $A=(a_{ij})_{\overset{1\le i\le m}{1\le j\le n}}$ durch
  $A^T:=(b_{ji})_{\overset{1\le j\le n}{1\le i\le m}}$ mit
  $b_{ji}:=a_{ij}$ definiert ist. Graphisch erh\"alt man
  \[
  A^T=
  \begin{pmatrix}
    a_{11}&a_{21}&a_{31}&\ldots&a_{m1}\\
    a_{12}&a_{22}&a_{32}&\ldots&a_{m2}\\
    a_{13}&a_{23}&a_{33}&\ldots&a_{m3}\\
    \vdots&\vdots&\vdots&&\vdots\\
    a_{1n}&a_{2n}&a_{3n}&\ldots&a_{mn}
  \end{pmatrix}
  \quad\text{aus}\quad
  A=
  \begin{pmatrix}
    a_{11}&a_{12}&a_{13}&\ldots&a_{1n}\\
    a_{21}&a_{22}&a_{23}&\ldots&a_{2n}\\
    a_{31}&a_{32}&a_{33}&\ldots&a_{3n}\\
    \vdots&\vdots&\vdots&&\vdots\\
    a_{m1}&a_{m2}&a_{m3}&\ldots&a_{mn}
  \end{pmatrix}.
  \]
\end{remark}

\Section{Vektorr\"aume mit Skalarprodukt}
Sobald wir Skalarprodukte verwenden, wollen wir stets annehmen, dass
wir $\R$- oder $\C$-Vektorr\"aume betrachten. 

\Subsection{Euklidische Vektorr\"aume}
Ein euklidischer Vektorraum ist ein Vektorraum mit einem reellen
Skalarprodukt.
\begin{definition}
  Sei $V$ ein $\R$-Vektorraum. Ein (reelles) Skalarprodukt auf $V$ ist
  eine Funktion $\langle\cdot,\cdot\rangle\colon V\times V\to\R$, die
  folgendes erf\"ullt:
  \begin{enumerate}[(i)]
  \item $\langle a,b\rangle =\langle b,a\rangle$ f\"ur alle $a,b\in V$
    \hfill (Symmetrie) 
  \item $\langle\lambda a+\mu b,c\rangle =\lambda\langle a,c\rangle
    +\mu\langle b,c\rangle$ f\"ur alle $a,b,c\in V$ und
    $\lambda,\mu\in\R$ \hfil (Linearit\"at)
  \item $\langle a,a\rangle\ge0$ und $\langle a,a\rangle=0$
    $\Longleftrightarrow$ $a=0$ f\"ur alle $a\in V$ \hfill (positive
    Definitheit)
  \end{enumerate}
\end{definition}

\begin{remark}\label{skp rem}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Aus des Symmetrie und der Linearit\"at im ersten Argument
    folgt auch die Linearit\"at im zweiten Argument
    \[\langle c,\lambda a+\mu b\rangle =\langle\lambda a+\mu
    b,c\rangle =\lambda\langle a,c\rangle +\mu\langle b,c\rangle
    =\lambda\langle c,a\rangle +\mu\langle c,b\rangle.\]
    Eine Funktion in zwei Argumenten, die in beiden Argumenten linear
    ist, hei\ss{}t bilinear. 
  \item\label{skp rem ii} Per Induktion zeigt man f\"ur beliebige
    Linearkombinationen \[\left\langle\sum\limits_{i=1}^m\lambda^ia_i,
      \sum\limits_{j=1}^n\mu^jb_j\right\rangle =\sum\limits_{i=1}^m
    \sum\limits_{j=1}^n \lambda^i\mu^j\langle a_i,b_j\rangle.\] Somit
    ist ein Skalarprodukt durch seine Werte auf einer Basis eindeutig
    bestimmt.
  \item Sei $V=\R^n$. F\"ur Vektoren $\xi=(\xi^1,\ldots,\xi^n)$ und
    $\eta=(\eta^1,\ldots,\eta^n)$ definieren wir 
    \[\langle\xi,\eta\rangle:=\sum\limits_{i=1}^n\xi^i\eta^i.\] 
    Dies ist ein Skalarprodukt auf $\R^n$ (\"Ubung), das
    Standard-Skalarprodukt. 
  \item Sei $V=\R^2$. Definiere f\"ur $\xi=(\xi^1,\xi^2)$ und
    $\eta=(\eta^1,\eta^2)$ \[\langle\xi,\eta\rangle :=\xi^1\eta^1
    +5\xi^1\eta^2 +5\xi^2\eta^2 +26\xi^2\eta^2.\] Dies ist ein
    weiteres Skalarprodukt auf $\R^2$. Es stimmt nicht mit dem
    Standardskalarprodukt auf $\R^2$ \"uberein. 
  \item Sei $V$ der Vektorraum der auf $[a,b]\subset\R$ stetigen
    reellwertigen Funktionen, $V=C^0([a,b])$. Gelte bei diesen
    Beispielen stets $a<b$. Definiere f\"ur $f,g\in V$ \[\langle
    f,g\rangle =\int\limits_a^b f(x)g(x)\,dx.\] Dies ist ein
    Skalarprodukt auf $V$ (vgl.{} Analysis-Vorlesung).
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $\langle\cdot,\cdot\rangle\colon V\times V\to\R$ ein
  Skalarprodukt und sei $a_1,\ldots,a_n$ eine Basis von $V$. Dann
  definieren wir \[c_{ij}:=\langle a_i,a_j\rangle\quad \text{f\"ur
  }1\le i,j\le n.\] $C=(c_{ij})_{1\le i,j\le n}$ hei\ss{}t Matrix zum
  Skalarprodukt $\langle\cdot,\cdot\rangle$.\par Beachte, dass wir
  hier beide Indices unten schreiben. In Matrizenform stellen wir $C$
  durch 
  \[
  \begin{pmatrix}
    c_{11}&c_{12}&\ldots&a_{1n}\\
    c_{21}&c_{22}&\ldots&a_{2n}\\
    \vdots&\vdots&\ddots&\vdots\\
    c_{n1}&c_{n2}&\ldots&a_{nn}
  \end{pmatrix}
  \]
  dar. Es ist nicht ideal, Matrizen der Form $\left(c^i_j\right)$ und
  $\left(c_{ij}\right)$ graphisch gleich darzustellen, jedoch
  \"ublich.
\end{definition}

\begin{theorem}
  Die Matrix $C=(c_{ij})_{1\le i,j\le n}$ eines reellen
  Skalarproduktes ist symmetrisch, \dh es gilt $c_{ij}=c_{ji}$ f\"ur
  alle $1\le i,j\le n$ oder $C=C^T$ mit $C^T:=(b_{ij})_{1\le i,j\le
    n}$ mit $b_{ij}=c_{ji}$. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $a_1,\ldots,a_n$ eine Basis. Dann gilt \[c_{ij}=\langle
  a_i,a_j\rangle =\langle a_j,a_i\rangle =c_{ji}.\qedhere\] 
\end{proof}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Bez\"uglich der Standardbasis ist die Matrix des
    Standardskalarproduktes auf $\R^n$ gleich 
    $\eins=I=(\delta_{ij})_{1\le i,j\le n}$.
  \item Das Skalarprodukt mit \[\langle\xi,\eta\rangle :=\xi^1\eta^1
    +5\xi^1\eta^2 +5\xi^2\eta^1 +26\xi^2\eta^2\] ist bez\"uglich der
    Standardbasis des $\R^2$ durch die Matrix
    \[
    \begin{pmatrix}
      1&5\\ 5&26
    \end{pmatrix}
    \]
    und bez\"uglich der Basis aus den Vektoren $(1,0)$ und $(-5,1)$
    durch die Matrix $\eins$ dargestellt.
  \item Sei $V$ der Vektorraum der Polynome vom Grad $\le3$ mit Basis
    $(1,x,x^2,x^3)$. Dann ist das Skalarprodukt \[\langle p,q\rangle
    =\int\limits_0^1 p(x)q(x)\,dx\] durch die Matrix
    \[
    \begin{pmatrix}
      1&\frac12&\frac13&\frac14\\[1mm]
      \frac12&\frac13&\frac14&\frac15\\[1mm]
      \frac13&\frac14&\frac15&\frac16\\[1mm]
      \frac14&\frac15&\frac16&\frac17      
    \end{pmatrix}
    \]
    dargestellt. 
  \end{enumerate}
\end{beispiele}

\begin{lemma}
  Sei $\langle\cdot,\cdot\rangle$ ein Skalarprodukt, dem bez\"uglich
  der Basis $a_1,\ldots,a_n$ die Matrix $(c_{ij})_{1\le i,j\le n}$
  zugeordnet ist. Seien $\xi=\sum\limits_{i=1}^n\xi^ia_i$ und
  $\eta=\sum\limits_{j=1}^n\eta^ia_i$ beliebig. Dann gilt \[\langle
  \xi,\eta\rangle =\sum\limits_{i,j=1}^n\xi^i c_{ij}\eta^j.\] 
\end{lemma}
\begin{proof}[Beweis]
  Benutze die Linearit\"at in beiden Argumenten wie in Bemerkung
  \ref{skp rem} \eqref{skp rem ii}. 
\end{proof}

\begin{remark}
  Wir wollen schlie\ss{}lich noch das Verhalten einer ein
  Skalarprodukt darstellenden Matrix unter Basistransformationen
  untersuchen. \par Sei $V$ ein reeller Vektorraum mit Basen $S$ und
  $T$, $S=(a_1,\ldots,a_n)$ und
  $T=(b_1,\ldots,b_n)$. Gelte \[b_k=\sum\limits_{i=1}^n d^i_ka_i.\]
  Das Skalarprodukt $\langle\cdot,\cdot\rangle\colon V\times V\to\R$
  werde bez\"uglich $S$ durch die Matrix $C=(c_{ij})_{1\le i,j\le n}$
  beschrieben. Dann gilt
  \begin{align*}
    m_{kl}:=&\,\langle b_k,b_l\rangle =\left\langle
      \sum\limits_{i=1}^n d^i_ka_i, \sum\limits_{j=1}^n
      d^j_la_j\right\rangle\\
    =&\,\sum\limits_{i,j=1}^nd^i_kd^j_l\langle a_i,a_j\rangle 
    =\sum\limits_{i,j=1}^n d^i_kd^j_lc_{ij}.
  \end{align*}
  Setze $M:=(m_{ij})_{1\le i,j\le n}$ und $D:=(d^i_k)_{1\le i,k\le
    n}$. Dann gilt \[M=D^TCD.\]
\end{remark}

\Subsection{Unit\"are Vektorr\"aume}
Mit $\bar z$ bezeichnen wir die komplex konjugierte Zahl zu
$z$. Ist also $z=x+iy$ mit $x,y\in\R$, so ist $\bar z=x-iy$. 

Ein Vektorraum mit einem unit\"aren Skalarprodukt hei\ss{}t unit\"arer
Vektorraum. 
\begin{definition}
  Sei $V$ ein $\C$-Vektorraum. Ein unit\"ares Skalarprodukt auf $V$
  ist eine Funktion $\langle\cdot,\cdot\rangle\colon V\times V\to\C$,
  die die folgenden Eigenschaften erf\"ullt:
  \begin{enumerate}[(i)]
  \item $\langle a,b\rangle =\ol{\langle b,a\rangle}$ f\"ur alle
    $a,b\in V$\hfill (hermitesch)
  \item $\langle\lambda a+\mu b,c\rangle =\lambda\langle a,c\rangle
    +\mu\langle b,c\rangle$ f\"ur alle $a,b,c\in V$ und alle
    $\lambda,\mu\in\C$\\ \phantom x \hfill (Linearit\"at im ersten
    Argument)
  \item $\langle a,a\rangle\ge0$ und $\langle a,a\rangle=0$
    $\Longleftrightarrow$ $a=0$ f\"ur alle $a\in V$ \hfill (positiv
    definit) 
  \end{enumerate}
\end{definition}

\begin{remark}
  Bei der positiven Definitheit d\"urfen wir $\langle a,a\rangle\ge0$
  schreiben, da $\langle a,a\rangle$ aufgrund der Hermitizit\"at f\"ur
  alle $a\in V$ reell ist. \par
  Folgende Eigenschaften und Beispiele sind analog zum reellen Fall
  \begin{enumerate}[(i)]
  \item Seien $a,b,c\in V$ und $\lambda,\mu\in\C$. Dann gilt
    \[\langle c,\lambda a+\mu b\rangle =\ol{\langle\lambda a+\mu
      b,c\rangle} =\bar\lambda \ol{\langle a,c\rangle} +\bar\mu
    \ol{\langle b,c\rangle} =\bar\lambda\langle c,a\rangle +\bar\mu
    \langle c,b\rangle.\] Linearit\"at im ersten Argument und dieses
    Verhalten im zweiten Argument bezeichnet man als
    Sesquilinearit\"at. \par Es gibt auch die umgekehrte Konvention,
    \dh man definiert ein unit\"ares Skalarprodukt so, dass es im
    zweiten Argument statt im ersten Argument linear ist und dass die
    \"ubrigen Eigenschaften unver\"andert gelten. Im ersten Argument
    werden dann Skalare komplex konjugiert nach au\ss{}en gezogen. 
  \item Per Induktion folgt hieraus f\"ur beliebige
    Linearkombinationen \[\left\langle
      \sum\limits_{i=1}^m\lambda^ia_i,
      \sum\limits_{j=1}^n\mu^jb_j\right\rangle =\sum\limits_{i=1}^m
    \sum\limits_{j=1}^n \lambda^i\ol{\mu^j} \langle a_i,b_j\rangle.\] 
    Daher ist ein unit\"ares Skalarprodukt durch seine Werte auf einer
    Basis bereits eindeutig bestimmt. 
  \item Ist $V=\C^n$ und seien $x=(x^1,\ldots,x^n)$ und
    $y=(y^1,\ldots,y^n)$ Vektoren in $V$, so ist durch \[\langle
    x,y\rangle :=\sum\limits_{i=1}^n x^i\ol{y^i}\] ein unit\"ares
    Skalarprodukt auf $\C^n$ definiert. 
  \item Sei $V$ der komplexe Vektorraum der auf $[a,b]$
    komplexwertigen stetigen Funktionen einer reellen Variablen. Dann
    definiert
    \[\langle f,g\rangle:=\int\limits_a^b f(t)\ol{g(t)}\,dt\] ein
    unit\"ares Skalarprodukt auf $V$. Vergleiche wieder eine
    Analysis-Vorlesung f\"ur die positive Definitheit. 
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $V$ ein komplexer Vektorraum und
  $\langle\cdot,\cdot\rangle\colon V\times V\to\C$ ein unit\"ares
  Skalarprodukt. Sei $(a_1,\ldots,a_n)$ eine Basis von $V$. Dann
  hei\ss{}t die Matrix $C=(c_{ij})_{1\le i,j\le n}$ mit 
  \[c_{ij}= \langle a_i,a_j\rangle,\quad 1\le i,j,\le n\] die Matrix
  des Skalarproduktes $\langle\cdot,\cdot\rangle$ bez\"uglich der
  Basis $a_1,\ldots,a_n$. 
\end{definition}

\begin{theorem}
  Die Matrix $C$ eines unit\"aren Skalarproduktes ist hermitesch, \dh
  es gilt $C^T=\bar C$. 
\end{theorem}
\begin{proof}[Beweis]
  Es gilt \[c_{ij} =\langle a_i,a_j\rangle =\ol{\langle
    a_j,a_i\rangle} =\ol{c_{ji}}.\] Es folgt $C^T=\ol{C}$ wie
  behauptet. 
\end{proof}

Wie im reellen Fall zeigt man: 
\begin{lemma}
  Sei $\langle\cdot,\cdot\rangle$ ein unit\"ares Skalarprodukt, dem
  bez\"uglich einer Basis $a_1,\ldots,a_n$ die Matrix $(c_{ij})_{1\le
    i,j\le n}$ zugeordnet ist. Seien $\xi=\sum\limits_{i=1}^n\xi^ia_i$
  und $\eta=\sum\limits_{j=1}^n\eta^ia_i$ beliebig. Dann
  gilt \[\langle \xi,\eta\rangle =\sum\limits_{i,j=1}^n\xi^i
  c_{ij}\bar{\eta^j}.\]
\end{lemma}

\begin{remark}
  Wir wollen wiederum das Verhalten einer ein Skalarprodukt
  darstellenden Matrix unter Basistransformationen untersuchen. \par
  Sei $V$ ein komplexer Vektorraum mit Basen $S$ und $T$,
  $S=(a_1,\ldots,a_n)$ und
  $T=(b_1,\ldots,b_n)$. Gelte \[b_k=\sum\limits_{i=1}^n d^i_ka_i.\]
  Ein Skalarprodukt $\langle\cdot,\cdot\rangle\colon V\times V\to\C$
  werde bez\"uglich $S$ durch die Matrix $C=(c_{ij})_{1\le i,j\le n}$
  beschrieben. Dann gilt
  \begin{align*}
    m_{kl}:=&\,\langle b_k,b_l\rangle =\left\langle
      \sum\limits_{i=1}^n d^i_ka_i, \sum\limits_{j=1}^n
      d^j_la_j\right\rangle\\
    =&\,\sum\limits_{i,j=1}^nd^i_k\ol{d^j_l}\langle a_i,a_j\rangle 
    =\sum\limits_{i,j=1}^n d^i_k\ol{d^j_l}c_{ij}.
  \end{align*}
  Setze $M:=(m_{ij})_{1\le i,j\le n}$ und $D:=(d^i_k)_{1\le i,k\le
    n}$. Dann gilt \[M=D^TC\bar D.\]
\end{remark}

\begin{remark}
  Reelles und komplexes Skalarprodukt verhalten sich sehr
  \"ahnlich. Daher werden wir h\"aufiger nur den komplexen Sachverhalt
  untersuchen. Ein analoges reelles Resultat folgt dann analog. 
\end{remark}

\Subsection{Norm}
\begin{theorem}[Cauchy-Schwarzsche Ungleichung]
  Sei $V$ ein Vektorraum mit Skalarprodukt. Dann gilt \[|\langle
  a,b\rangle|^2\le \langle a,a\rangle \cdot\langle b,b\rangle\] f\"ur
  alle $a,b\in V$. Gleichheit gilt genau dann, wenn $a$ und $b$ linear
  abh\"angig sind. 
\end{theorem}
\begin{proof}[Beweis]
  Der Fall $b=0$ ist einfach (\"Ubung). \par
  Sei $\lambda\in\C$ beliebig. Dann gilt
  \[0\le\langle a-\lambda b,a-\lambda b\rangle =\langle a,a\rangle
  -\lambda\ol{\langle a,b\rangle} -\bar\lambda\langle a,b\rangle
  +\lambda\bar\lambda\langle b,b\rangle.\] Setzen wir speziell
  $\lambda =\frac{\langle a,b\rangle}{\langle b,b\rangle}$, so folgt
  nach Multiplikation mit $\langle b,b\rangle$ \[0\le\langle
  a,a\rangle \cdot\langle b,b\rangle -2|\langle a,b\rangle|^2
  +|\langle a,b\rangle|^2.\] Die behauptete Ungleichung folgt. \par
  Gilt Gleichheit, so gilt insbesondere auch in der ersten Ungleichung
  Gleichheit, also $0=a-\lambda b$ aufgrund der positiven Definitheit.  
\end{proof}

\begin{proof}[Alternativbeweis \"uber $\R$]
  Sei $\lambda\in\R$ beliebig. Dann gilt
  \begin{align*}
    0\le&\,\langle\lambda a+b,\lambda a+b\rangle\umbruch\\
    =&\,\lambda^2\langle a,a\rangle +2\lambda\langle a,b\rangle
    +\langle b,b\rangle. 
  \end{align*}
  Dies ist f\"ur alle $\lambda\in\R$ aber nur m\"oglich, wenn die
  Diskriminante der zugeh\"origen quadratischen Gleichung nicht
  positiv ist, wenn also \[\langle a,b\rangle^2-\langle a,a\rangle
  \langle b,b\rangle\le0\] gilt. Dies ist gerade die Behauptung.
\end{proof}

\begin{corollary}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $a_1,\ldots,a_n$ und $b_1,\ldots,b_n$ reelle
    Zahlen. Dann gilt \[\sum\limits_{i=1}^n a_ib_i
    \le\left(\sum\limits_{i=1}^na_i^2\right)^{1/2}\cdot
    \left(\sum\limits_{j=1}^n b_j^2\right)^{1/2}.\] 
  \item Seien $f,g\colon[a,b]\to\C$ stetig. Dann
    gilt \[\left|\int\limits_a^bf(t)\bar g(t)\,dt\right|^2
    \le\int\limits_a^b|f(t)|^2\,dt\cdot \int\limits_a^b|g(t)|^2\,dt.\]
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  Dies folgt direkt aus der Cauchy-Schwarzschen Ungleichung f\"ur den
  Vektorraum 
  \begin{enumerate}[(i)]
  \item $\R^n$ mit Standardskalarprodukt.
  \item der stetigen Funktionen auf $[a,b]$ mit $\int f\bar g$ als
    Skalarprodukt. \qedhere
  \end{enumerate}
\end{proof}

\begin{definition}
  Sei $V$ ein reeller oder komplexer Vektorraum. Eine Funktion
  $\Vert\cdot\Vert\colon V\to\R$ hei\ss{}t Norm auf $V$, wenn sie die
  folgenden Bedingungen erf\"ullt
  \begin{enumerate}[(i)]
  \item $\Vert\lambda a\Vert =|\lambda|\cdot\Vert a\Vert$ f\"ur alle
    $\lambda\in F$ und $a\in V,$
  \item $\Vert a+b\Vert\le\Vert a\Vert +\Vert b\Vert$ f\"ur alle
    $a,b\in V,$ \hfill (Dreiecksungleichung)
  \item $\Vert a\Vert=0$ $\Longleftrightarrow$ $a=0$. 
  \end{enumerate}
\end{definition}

\begin{theorem}
  Sei $V$ ein Vektorraum mit Skalarprodukt
  $\langle\cdot,\cdot\rangle$. Dann ist die Funktion
  $\Vert\cdot\Vert\colon V\to\R$, durch $\Vert a\Vert:=\sqrt{\langle
    a,a\rangle}$ definiert, eine Norm.
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item $\Vert\lambda a\Vert =\sqrt{\langle\lambda a,\lambda a\rangle}
    =\sqrt{\lambda\bar\lambda\langle a,a\rangle}
    =|\lambda|\sqrt{\langle a,a\rangle} =|\lambda|\cdot\Vert a\Vert$. 
  \item\rule{0mm}{1mm}\vspace*{-2.5ex}
    \begin{align*}
      \Vert a+b\Vert^2=&\,\langle a+b,a+b\rangle =\langle a,a\rangle
      +\langle a,b\rangle +\langle b,a\rangle +\langle b,b\rangle\\
      \le&\,\langle a,a\rangle +2|\langle a,b\rangle| +\langle
      b,b\rangle\\
      \le&\,\Vert a\Vert^2 +2\cdot\Vert a\Vert\cdot\Vert b\Vert +\Vert
      b\Vert^2 \qquad\text{(Cauchy-Schwarz)}\\
      =&\,(\Vert a\Vert +\Vert b\Vert)^2.
    \end{align*}
  \item Die positive Definitheit der Norm folgt aus der positiven
    Definitheit des Skalarproduktes. \qedhere
  \end{enumerate}
\end{proof}

In einem Skalarproduktraum (=Vektorraum mit Skalarprodukt) werden wir
unter einer Norm immer $\Vert a\Vert:=\sqrt{\langle a,a\rangle}$
verstehen.

\Subsection{Orthonormalbasen}
\begin{definition}
  Sei $V$ ein Skalarproduktraum. Dann hei\ss{}t $a\in V$ senkrecht zu
  $b\in V$, wenn $\langle a,b\rangle=0$ gilt. Wir schreiben $a\perp
  b$. Eine Teilmenge $S\subset V$ hei\ss{}t orthogonal zu einer
  Teilmenge $T\subset V$, wenn $\langle s,t\rangle=0$ f\"ur alle
  $(s,t)\in S\times T$ gilt. Hier schreiben wir auch $S\perp T$.  
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ist $a$ orthogonal zu $b$, so ist $b$ orthogonal zu $a$. 
  \item Der Nullvektor ist zu allen anderen Vektoren orthogonal, da
    aus \[\langle 0,a\rangle =\langle 0+0,a\rangle =\langle 0,
    a\rangle +\langle 0,a\rangle\] $\langle 0,a\rangle=0$ folgt. Dies
    ist auch der einzige Vektor mit dieser Eigenschaft, da aus
    $\langle a,a\rangle=0$ bereits $a=0$ folgt.
  \item Zwei Teilmengen $S$ und $T$ sind genau dann orthogonal, wenn
    $\langle S\rangle$ und $\langle T\rangle$ orthogonal sind
    (\"Ubung). 
  \end{enumerate}
\end{remark}

\begin{definition}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Eine Familie/Teilmenge $S$ von $V$ hei\ss{}t orthogonal, wenn
    je zwei verschiedene Elemente aus $S$ orthogonal zueinander sind.
  \item Eine orthogonale Familie $S$ hei\ss{}t orthonormiert, wenn
    $\langle a,a\rangle=1$ f\"ur alle $a\in S$ gilt.
  \item Eine orthonormierte Familie, die zugleich Basis von $V$ ist,
    hei\ss{}t orthonormierte Basis oder Orthonormalbasis von $V$. 
  \end{enumerate}
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Eine orthogonale Familie $S$ von Vektoren mit $0\not\in S$
    kann man zu einer orthonormalen Familie machen, indem man jeden
    Vektor $a\in S$ durch $\frac a{\Vert a\Vert}$ ersetzt. Die neue
    Familie ist dann durch Normieren aus der alten hervorgegangen
    (\"Ubung).
  \item Sei $V$ der Vektorraum der auf $[-\pi,\pi]$ stetigen
    reellwertigen Funktionen mit Skalarprodukt \[\langle f,g\rangle
    =\int\limits_{-\pi}^\pi f(x)g(x)\,dx.\] Dann ist \[\{1,\sin x,\cos
    x,\sin2x,\cos2x,\sin3x,\cos3x,\ldots\}\] eine orthogonale
    Familie (\"Ubung). Dies spielt bei Fourierreihen eine Rolle. 
  \end{enumerate}
\end{remark}

\begin{theorem}\label{orthog lin unabh thm}
  Sei $S$ eine orthogonale Familie mit $0\not\in S$. Dann ist $S$
  linear unabh\"angig. 
\end{theorem}
\begin{proof}[Beweis]
  Gelte \[\sum\limits_{i=1}^n\lambda^ia_i=0\] mit $\lambda^i\in F$ und
  $a_i\in S$ f\"ur $1\le i\le n$ und ein $n\in\N^+$ sowie $a_i\neq
  a_j$ f\"ur $i\neq j$. Dann folgt f\"ur $1\le j\le n$ \[0=\langle
  0,a_j\rangle =\left\langle \sum\limits_{i=1}^n \lambda^ia_i,
    a_j\right\rangle =\sum\limits_{i=1}^n \lambda^i \langle
  a_i,a_j\rangle =\lambda^j\langle a_j,a_j\rangle.\] Wegen $a_j\neq0$
  folgt also $\lambda^j=0$. Somit ist $S$ linear unabh\"angig.
\end{proof}

\begin{theorem}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei
  $a_1,\ldots,a_n$ eine Orthonormalbasis. Dann gilt f\"ur jedes $b\in
  V$ \[b=\sum\limits_{i=1}^n \langle b,a_i\rangle a_i.\]
\end{theorem}
\begin{proof}[Beweis]
  Wir wissen bereits, dass sich $b$ als Linearkombination der
  Form \[b=\sum\limits_{i=1}^n \lambda^ia_i\] darstellen
  l\"asst. Hieraus folgt \[\langle b,a_j\rangle =\left\langle
    \sum\limits_{i=1}^n\lambda^ia_i,a_j\right\rangle
  =\sum\limits_{i=1}^n \lambda^i\langle a_i,a_j\rangle =\lambda^j.\]
  Wir erhalten die Behauptung. 
\end{proof}

Der folgende Algorithmus erlaubt es, aus einer Basis eine
Orthogonalbasis zu gewinnen. 
\begin{theorem}[Gram-Schmidtsches Orthogonalisierungsverfahren]
  Jeder endlichdimensionale Skalarproduktraum besitzt eine
  Orthonormalbasis. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $a_1,\ldots,a_n$ eine beliebige Basis. Daraus konstruieren wir
  induktiv eine orthogonale Basis verm\"oge \[b_{k+1}:=a_{k+1}
  -\sum\limits_{j=1}^k \frac{\ol{\langle b_j,a_{k+1}\rangle}}{\langle
    b_j,b_j\rangle}b_j.\] Nach Definition handelt es sich weiterhin um
  eine Basis. Dabei folgen die lineare Unabh\"angigkeit und die
  Erzeugniseigenschaft induktiv. Insbesondere gilt also $b_j\neq0$
  f\"ur alle $j$. Die Familie der $b_j$ ist orthogonal, da wir f\"ur
  $i\in\{1,\ldots,k\}$ induktiv
  \begin{align*}
    \langle b_i,b_{k+1}\rangle =&\,\langle b_i,a_{k+1}\rangle
    -\sum\limits_{j=1}^k\frac{\langle b_j,a_{k+1}\rangle}{\langle
      b_j,b_j\rangle} \langle b_i,b_j\rangle\umbruch\\
    =&\,\langle b_i,a_{k+1}\rangle -\langle b_i,a_{k+1}\rangle\\
    =&\,0
  \end{align*}
  erhalten. Wir normieren nun die Vektoren $b_i$. Nach Theorem \ref{orthog
    lin unabh thm} sind sie linear unabh\"angig. Aufgrund ihrer Anzahl
  handelt es sich somit um eine Orthonormalbasis. 
\end{proof}

\begin{remark}
  Um die F\"alle $F=\R$ und $F=\C$ gleichzeitig behandeln zu k\"onnen,
  setzen wir $A^*:={\bar A}^T$ f\"ur $A\in F^{n\times n}$. Im Reellen
  gilt $A^*=A^T$.
\end{remark}

\begin{theorem}\label{ortho basis trafo aequiv thm}
  Sei $V$ ein Skalarproduktraum, $\dim V<\infty$. Sei
  $\{b_1,\ldots,b_n\}$ eine Orthonormalbasis. Definiere Vektoren $d_k$
  durch \[d_k=\sum\limits_{i=1}^n a^i_kb_i.\] Setze
  $A:=\left(a^i_j\right)_{1\le i,j\le n}$. Dann ist
  $\{d_1,\ldots,d_n\}$ genau dann eine Orthonormalbasis von $V$, wenn
  \[A^*A=I\] gilt.
\end{theorem}
\begin{proof}[Beweis]
  Wie angek\"undigt zeigen wir nur den unit\"aren Fall. Es gilt
  \begin{align*}
    \langle d_k,d_l\rangle =&\,\left\langle \sum\limits_{i=1}^n
      a^i_kb_i, \sum\limits_{j=1}^n a^j_lb_j\right\rangle
    =\sum\limits_{i,j=1}^n a^i_k\ol{a^j_l} \langle b_i,b_j\rangle\\
    =&\,\sum\limits_{i,j=1}^n a^i_k\ol{a^j_l} \delta_{ij}
    =\sum\limits_{i=1}^n a^i_k\ol{a^i_l}. 
  \end{align*}
  Sei also $\{d_1,\ldots,d_n\}$ orthonormal. Dann folgt \[\delta_{kl}
  =\sum\limits_{i=1}^n a^i_k\ol{a^i_l}\quad\text{oder}\quad A^T\bar
  A=I.\] Durch komplexes Konjugieren erhalten wir $A^*A=I$. \par Gelte
  umgekehrt $A^*A=I$. Mit der obigen Rechnung erhalten wir daher
  $\langle d_k,d_l\rangle=\delta_{kl}$. Somit ist $\{d_1,\ldots,d_n\}$
  orthonormiert und daher auch linear unabh\"angig; es handelt sich
  somit um eine Orthonormalbasis von $V$. 
\end{proof}

\begin{definition}
  Sei $A$ eine $(n\times n)$-Matrix mit $A^*=A^{-1}$. Ist
  $A\in\R^{n\times n}$, so hei\ss{}t $A$ orthogonal; ist
  $A\in\C^{n\times n}$, so hei\ss{}t $A$ unit\"ar. 
\end{definition}

\begin{theorem}\label{ortho matr char thm}
  Sei $A\in\R^{n\times n}$. Dann sind die folgenden Aussagen
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{orth i} $A$ ist orthogonal
  \item\label{orth ii} $A^TA=I$
  \item\label{orth iii} $AA^T=I$
  \item\label{orth iv} $A$ vermittelt eine Basistransformation zwischen
    orthonormierten Basen eines $n$-dimensionalen euklidischen
    Vektorraumes. 
  \item\label{orth v} Die Spalten der Matrix $A$ bilden eine
    orthonormierte Basis des Vektorraumes $\R^n$ mit
    Standardskalarprodukt.
  \item\label{orth vi} Die Zeilen der Matrix $A$ bilden eine
    orthonormierte Basis des Vektorraumes $\R^n$ mit
    Standardskalarprodukt.
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  Nach Definition sind die Aussagen \eqref{orth i}, \eqref{orth ii}
  und \eqref{orth iii} \"aquivalent. Theorem \ref{ortho basis trafo
    aequiv thm} impliziert, dass \eqref{orth ii} und \eqref{orth iv}
  \"aquivalent sind.\par Sei $A=\left(a^i_j\right)_{1\le i,j\le
    n}$. Dann folgt aus \eqref{orth ii}
  \[\sum\limits_{i=1}^n a^i_ka^i_l =\delta_{kl}\quad\text{f\"ur } 1\le
  k,l\le n.\] \eqref{orth v} folgt. Die Umkehrung \glqq\eqref{orth v}
  $\Longrightarrow$ \eqref{orth ii}\grqq{} folgt ebenso aus dieser
  Gleichung. \par Genauso wie man die \"Aquivalenz zwischen
  \eqref{orth ii} und \eqref{orth v} zeigt, erh\"alt man auch die
  \"Aquivalenz von \eqref{orth iii} und \eqref{orth vi}. 
\end{proof}

\begin{theorem}
  Sei $A\in\C^{n\times n}$. Dann sind die folgenden Aussagen
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item $A$ ist unit\"ar
  \item $A^*A=I$
  \item $AA^*=I$
  \item $A$ vermittelt eine Basistransformation zwischen
    orthonormierten Basen eines $n$-dimensionalen unit\"aren
    Vektorraumes. 
  \item Die Spalten der Matrix $A$ bilden eine orthonormierte Basis
    des Vektorraumes $\C^n$ mit Standardskalarprodukt.
  \item Die Zeilen der Matrix $A$ bilden eine orthonormierte Basis
    des Vektorraumes $\C^n$ mit Standardskalarprodukt.
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  Vollst\"andig analog zum reellen Fall. 
\end{proof}

\Subsection{Orthogonale und unit\"are Endomorphismen}
\def\unterabschnitt{Orthogonal und unit\"ar}
\begin{definition}
  Sei $V$ ein Skalarproduktraum. Dann hei\ss{}t ein Endomorphismus
  $f\colon V\to V$ orthogonal (bzw.{} unit\"ar), falls \[\langle
  f(a),f(b)\rangle =\langle a,b\rangle\quad\text{f\"ur alle }a,b\in
  V\] gilt. 
\end{definition}

\begin{theorem}\label{ortho eig thm}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $f\colon
  V\to V$ ein orthogonaler (bzw.{} unit\"arer) Endomorphismus. Dann
  gilt
  \begin{enumerate}[(i)]
  \item\label{ortho eig i} $\Vert f(a)\Vert =\Vert a\Vert$
  \item Sind $a$ und $b$ orthogonal, so auch $f(a)$ und $f(b)$. 
  \item\label{ortho eig iii} Ist $\lambda$ ein Eigenwert von $f$, so
    gilt $|\lambda|=1$.
  \item\label{ortho eig iv} $f$ ist eine Isomorphismus. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Es ist \[\Vert f(a)\Vert =\sqrt{\langle f(a),f(a)\rangle}
    =\sqrt{\langle a,a\rangle} =\Vert a\Vert.\]
  \item Dies folgt aus \[0=\langle a,b\rangle =\langle
    f(a),f(b)\rangle.\] 
  \item Ist $a$ ein Eigenvektor zum Eigenwert $\lambda$, so gilt nach
    nach \eqref{ortho eig i} \[\Vert a\Vert =\Vert f(a)\Vert =\Vert
    \lambda a\Vert =|\lambda|\cdot\Vert a\Vert.\] Wegen $a\neq0$ folgt
    die Behauptung. 
  \item Wegen \eqref{ortho eig iii} ist $0$ kein Eigenwert. Also
    folgt $\ker f=\{0\}$, $f$ ist also injektiv. Da $V$
    endlichdimensional ist, ist $f$ auch surjektiv und damit ein
    Isomorphismus. 
  \end{enumerate}
  (Wir bemerken, dass \eqref{ortho eig iv} f\"ur unendlichdimensionale
  Skalarproduktr\"aume nicht aus unserer Definition folgt: Betrachte
  $f\colon l^2\to l^2$ mit $\langle(a_i)_{i\in\N},
  (b_j)_{j\in\N}\rangle :=\sum\limits_{i\in\N} a_i\bar b_i$ und
  $l^2\equiv l^2(\N,\C)\subset\C^\N$ der Teilmenge, auf der die
  zugeh\"orige Norm endlich ist, sowie \[f(a_0,a_1,a_2,a_3,\ldots)
  :=(0,a_0,a_1,a_2,a_3,\ldots).\] Dann ist $f$ nicht surjektiv. Die
  anderen Teilaussagen gelten mit demselben Beweis auch f\"ur
  unendlichdimensionale Skalarproduktr\"aume.)
\end{proof}

\begin{theorem}\label{ortho fuer basis thm}
  Sei $\{a_1,\ldots,a_n\}$ eine Orthonormalbasis von $V$. Dann ist ein
  Endomorphismus $f\colon V\to V$ genau dann orthogonal (bzw.{}
  unit\"ar), falls \[\langle f(a_i),f(a_j)\rangle =\delta_{ij}\] f\"ur
  alle $1\le i,j\le n$ gilt. 
\end{theorem}
\begin{proof}[Beweis]
  Es ist klar, dass aus der Orthogonalit\"at (bzw.{} Unitarit\"at)
  $\langle f(a_i),f(a_j)\rangle =\delta_{ij}$ folgt. \par
  Gelte also $\langle f(a_i),f(a_j)\rangle =\delta_{ij}$. Wir wollen
  nachweisen, dass $f$ \glqq das Skalarprodukt erh\"alt\grqq: Seien
  $a=\sum\limits_{i=1}^n \lambda^ia_i$ und $b=\sum\limits_{j=1}^n
  \mu^ja_j$. Wir erhalten
  \begin{align*}
    \langle f(a),f(b)\rangle =&\,\left\langle
      f\left(\sum\limits_{i=1}^n \lambda^ia_i\right),
      f\left(\sum\limits_{j=1}^n \mu^ja_j\right)\right\rangle\\
    =&\,\sum\limits_{i,j=1}^n \lambda^i\ol{\mu^j} \underbrace{\langle
      f(a_i),f(a_j)\rangle}_{=\delta_{ij}=\langle a_i,a_j\rangle}\\
    =&\,\left\langle \sum\limits_{i=1}^n \lambda^ia_i,
      \sum\limits_{j=1}^n\mu^ja_j\right\rangle =\langle a,b\rangle.
  \end{align*}
  Somit ist $f$ orthogonal (bzw.{} unit\"ar). 
\end{proof}

\begin{theorem}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $S$ eine
  Orthonormalbasis. Dann ist ein Endomorphismus $f\colon V\to V$ genau
  dann orthogonal (bzw.{} unit\"ar), wenn die Matrix $A$ von $f$
  bez\"uglich $S$ orthogonal (bzw.{} unit\"ar) ist, \dh wenn $A^*A=I$
  gilt. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $S=\{b_1,\ldots,b_n\}$ und $A=\left(a^i_j\right)_{1\le i,j\le
    n}$, \dh es gelte \[f(b_k)=\sum\limits_{i=1}^n a^i_kb_i.\] Wir
  erhalten
  \[\langle f(b_k),f(b_l)\rangle =\sum\limits_{i,j=1}^n
  a^i_k\ol{a^j_l} \underbrace{\langle b_i,b_j\rangle}_{=\delta_{ij}}
  =\sum\limits_{i=1}^n \ol{a^i_l}a^i_k.\] 
  Nach Theorem \ref{ortho fuer basis thm} ist $f$ genau dann
  orthogonal, wenn $\langle f(b_k),f(b_l)\rangle=\delta_{kl}$ gilt. 
  Aufgrund unserer Rechnung ist dies aber \"aquivalent zu
  $\delta_{kl}=\sum\limits_{i=1}^n\ol{a^i_l}a^i_k$ und somit auch zu
  $A^*A=I$. Die Behauptung folgt. 
\end{proof}

\begin{beispiel}
  Bez\"uglich des Standardskalarproduktes des $\R^2$ sind die Matrizen
  \[
  \begin{pmatrix}
    \cos\phi&-\sin\phi\\
    \sin\phi&\cos\phi
  \end{pmatrix}
  \]
  f\"ur beliebige $\phi\in\R$ orthogonal, insbesondere also auch $I$
  und $-I$. 
\end{beispiel}

\begin{theorem}
  Seien $A,B$ orthogonale (bzw.{} unit\"are) $(n\times
  n)$-Matrizen. Dann gelten
  \begin{enumerate}[(i)]
  \item $A^{-1}$ ist orthogonal (bzw.{} unit\"ar).
  \item $AB$ ist orthogonal (bzw.{} unit\"ar). 
  \item $|\det A|=1$. 
  \end{enumerate}
  Die orthogonalen (bzw.{} unit\"aren) $(n\times n)$-Matrizen bilden
  somit eine Untergruppe der invertierbaren Matrizen $\GL_n(\mathbb
  K)$,
  \begin{itemize}
  \item die orthogonale Gruppe $O(n)$ bzw.{}
  \item die unit\"are Gruppe $U(n)$. 
  \end{itemize}
\end{theorem}
Weiterhin definiert man:
\begin{itemize}
\item Die spezielle lineare Gruppe $SL(n,F)\equiv SL_n(F)$ besteht aus
  den Elementen der ``general linear group'' $GL(n,F)\equiv \GL_n(F)$ mit
  Determinante $1$.
\item Die spezielle orthogonale Gruppe $SO(n)$ besteht aus den
  orthogonalen Matrizen $A$ mit $\det A=1$.
\end{itemize}
Der Determinantenmultiplikationssatz liefert, dass es sich damit
tats\"achlich um Untergruppen von $\GL_n(F)$ bzw.{} $O(n)$ handelt. 
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Nach Definition ist $A^*A=I$. Weiterhin gilt $AA^*=I$. Also
    ist $A^*$ die Inverse zu $A$, $A^{-1}=A^*$. Es folgt
    aus \[\left(A^{-1}\right)^*A^{-1} =\left(A^*\right)^*A^* =AA^*
    =I,\] dass auch $A^{-1}$ orthogonal ist. 
  \item Dies folgt aus \[(AB)^*(AB) =B^*\left(A^*A\right)B =B^*IB
    =B^*B =I.\] 
  \item Es gilt 
    \begin{align*} 
      1 =&\,\det I =\det\left(A^*A\right) =\det A^*\cdot\det A
      =\det{\ol A}^T\cdot\det A\\ =&\,\det\ol A\cdot\det A =\ol{\det
        A}\cdot\det A =|\det A|^2.
    \end{align*}
    Die Behauptung folgt. \qedhere
  \end{enumerate}
\end{proof}

\Subsection{Orthogonale Komplemente}
\begin{definition}
  Sei $V$ ein Skalarproduktraum und sei $S\subset V$ beliebig. Dann
  hei\ss{}t \[S^\perp:=\{a\in V\colon\langle a,b\rangle
  =0\quad\text{f\"ur alle }b\in S\}\] das orthogonale Komplement von
  $S$ in $V$. 
\end{definition}

\begin{theorem}\label{orth komp eig thm}
  Sei $V$ ein Skalarproduktraum und sei $S\subset V$. Dann gelten 
  \begin{enumerate}[(i)]
  \item $S^\perp$ ist ein Unterraum von $V$,
  \item $\langle S\rangle \cap S^\perp=\{0\}$,
  \item $\left(S^\perp\right)^\perp\supset\langle S\rangle$ und 
  \item $S^\perp =\langle S\rangle^\perp$. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $a,b\in S^\perp$ und $\lambda,\mu\in F$. Dann gilt f\"ur
    alle $c\in S$ \[\langle \lambda a+\mu b,c\rangle =\lambda \langle
    a,c\rangle +\mu\langle b,c\rangle =0.\] Somit ist auch $\lambda
    a+\mu b\in S^\perp$. Wegen $0\in S^\perp$ ist $S^\perp$ nicht
    leer. 
  \item Sei $a\in S^\perp\cap\langle S\rangle$. Dann gibt es
    $\lambda^i\in F$ und $a_i\in S$ mit \[\sum\limits_{i=1}^n
    \lambda^ia_i=a.\] Wegen $a\in S^\perp$ folgt hieraus
    \[\langle a,a\rangle =\sum\limits_{i=1}^n \ol{\lambda^i} \langle
    a,a_i\rangle=0.\] Somit ist $a=0$ und wir erhalten die Behauptung.
  \item Seien $a\in S$ und $b\in S^\perp$. Dann gilt $\langle
    a,b\rangle =\ol{\langle b,a\rangle} =0$. Somit ist $S\subset
    \left(S^\perp\right)^\perp$. Da $\left(S^\perp\right)^\perp$ ein
    Unterraum ist, folgt sogar $\langle S\rangle\subset
    \left(S^\perp\right)^\perp$. \par
    (Ist $\dim V<\infty$, so gilt sogar Gleichheit (s.\,u.). Im Raum
    $l^2\equiv l^2(\N)\equiv l^2(\N,\R)\subset\R^\N$ ist
    $S=\{e_0,e_1,e_2,\ldots\}$ mit $S^\perp=\{0\}$ aber $\langle
    S\rangle\subsetneq l^2$ ein Gegenbeispiel, da $l^2(\N,\R)$ auch
    Folgen mit unendlich vielen von Null verschiedenen Eintr\"agen
    enth\"alt.)
  \item Wegen $S\subset\langle S\rangle$ ist klar, dass $\langle
    S\rangle^\perp\subset S^\perp$ gilt. Sei also $a\in S^\perp$ und
    $b=\sum\limits_{i=1}^n \lambda^ib_i$ mit $b_i\in S$ ein beliebiges
    Element in $\langle S\rangle$. Dann gilt \[\langle a,b\rangle
    =\sum\limits_{i=1}^n \ol{\lambda^i} \langle a,b_i\rangle =0.\]
    Somit gilt auch $a\in\langle S\rangle^\perp$. \qedhere
  \end{enumerate}
\end{proof}

\begin{theorem}\label{u perp dir sum thm}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Ist $U\subset V$
  ein Unterraum, so gilt $V=U\oplus U^\perp$. 
\end{theorem}
\begin{proof}[Beweis]
  Nach Theorem \ref{orth komp eig thm} gilt $U\cap U^\perp=\{0\}$. Es
  gen\"ugt also nachzuweisen, dass sich jeder Vektor $c\in V$ in der
  Form $c=a+b$ mit $a\in U$ und $b\in U^\perp$ darstellen l\"asst. Sei
  $\{a_1,\ldots,a_r\}$ eine Orthonormalbasis von $U$. Definiere $a$
  durch \[a:=\langle c,a_1\rangle a_1 +\ldots+ \langle c,a_r\rangle
  a_r\] und setze $b:=c-a$. Dann ist offensichtlicherweise
  $c=a+b$. Wir m\"ussen also noch zeigen, dass $b\in U^\perp$
  gilt: Es ist
  \begin{align*}
    \langle b,a_i\rangle=&\,\langle c-a,a_i\rangle\\
    =&\,\langle c,a_i\rangle -\left\langle \sum\limits_{j=1}^r \langle
      c,a_j\rangle a_j,a_i\right\rangle\\
    =&\,\langle c,a_i\rangle -\sum\limits_{j=1}^r \langle c,a_j\rangle
    \delta_{ji}=0.
  \end{align*}
  Somit steht $b$ orthogonal zu einer Basis von $U$. Wir erhalten
  $b\in U^\perp$ und die Behauptung folgt. 
\end{proof}

\begin{theorem}\label{orth kompl dim fml thm}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Ist $U\subset V$
  ein Unterraum, so gelten
  \begin{enumerate}[(i)]
  \item $\dim V=\dim U+\dim U^\perp$.
  \item $\left(U^\perp\right)^\perp=U$,
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Dies folgt direkt aus Theorem \ref{u perp dir sum thm} und der
    Dimensionsformel f\"ur Vek\-tor\-r\"au\-me.
  \item Es gilt $V=U\oplus U^\perp$ und $V=U^\perp \oplus
    \left(U^\perp\right)^\perp$. Nach Theorem \ref{orth komp eig thm}
    gilt aber $U\subset\left(U^\perp\right)^\perp$. Dies ist aber nur
    m\"oglich, wenn bereits $U=\left(U^\perp\right)^\perp$ gilt.
    \qedhere
  \end{enumerate}
\end{proof}

\begin{beispiel}
  Sei $V$ der Vektorraum der auf $[-a,a]$, $a>0$, stetigen
  reellwertigen Funktionen mit ($L^2$-)Skalarprodukt \[\langle
  f,g\rangle:=\int\limits_{-a}^a f(x)g(x)\,dx.\] Sei $U:=\{f\in
  V\colon f(-x)=-f(x)\text{ f\"ur alle }x\in[-a,a]\}$ der Unterraum
  der ungeraden Funktionen und $G:=\{f\in V\colon f(-x)=f(x)\text{
    f\"ur alle }x\in[-a,a]\}$ der Unterraum der geraden Funktionen in
  $V$. Wir behaupten, dass $U^\perp=G$ gilt.
\end{beispiel}
\begin{proof}[Beweis]
  Zun\"achst einmal ist klar, dass $G\subset U^\perp$ gilt. Sei nun
  $h\in U^\perp$ beliebig. Wir setzen $h_1(x):=\frac12(h(x)+h(-x))$
  und $h_2(x):=\frac12(h(x)-h(-x))$. Dann gilt $h=h_1+h_2$. Es ist
  $h_1\in G$ und $h_2\in U$. Wir sind fertig, wenn wir $h_2\equiv 0$
  zeigen k\"onnen. Aus $h\in U^\perp$ und $h_2\in U$ erhalten
  wir \[0=\langle h,h_2\rangle =\int\limits_{-a}^a h(x)h_2(x)\,dx
  =\int\limits_{-a}^a h_1(x)h_2(x)\,dx +\int\limits_{-a}^a
  h_2(x)h_2(x)\,dx.\] Das erste Integral auf der rechten Seite
  mit einer geraden und einer ungeraden Funktion verschwindet. Da $h$
  und somit auch $h_2$ stetig ist, folgt also $h_2\equiv0$ wie
  behauptet. 
\end{proof}

\Subsection{Adjungierte Abbildungen}
Zu einem Endomorphismus $f\colon V\to V$ wollen wir eine lineare
Abbildung $g\colon V\to V$ mit \[\langle f(a),b\rangle =\langle
a,g(b)\rangle\] finden. 

\begin{definition}
  Sei $V$ ein Skalarproduktraum. Zu $a\in V$ definieren wir $a^*\colon
  V\to\R$ (bzw.{} $a^*\colon V\to\C$) durch \[a^*(b)=\langle
  b,a\rangle\quad\text{f\"ur }b\in V.\] 
\end{definition}

Bemerkung: Die Abbildung $a^*$ ist linear, denn es gilt \[a^*(\lambda
b+\mu c) =\langle \lambda b+\mu c,a\rangle =\lambda\langle b,a\rangle
+\mu\langle c,a\rangle =\lambda a^*(b) +\mu a^*(c).\]

\begin{theorem}\label{riesz thm}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Dann gibt es zu
  jedem Funktional $\phi$ ein eindeutig bestimmtes $a\in V$ mit
  $\phi(\xi)=\langle\xi,a\rangle$ f\"ur alle $\xi\in V$. Somit ist
  $\phi=a^*$. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $\{a_1,\ldots,a_n\}$ eine orthonormierte Basis von
  $V$. Definiere $a$ durch \[a:=\sum\limits_{i=1}^n
  \ol{\phi(a_i)}a_i.\] Wir erhalten \[\langle a_j,a\rangle
  =\sum\limits_{i=1}^n \ol{\ol{\phi(a_i)}}\langle a_ja_i\rangle
  =\phi(a_j).\] Also stimmen $a^*$ und $\phi$ auf einer Basis von $V$
  \"uberein und sind daher gleich. \par Es bleibt noch zu zeigen, dass
  $a$ eindeutig bestimmt ist. Gelte also $\langle
  \xi,a\rangle=\langle\xi,a'\rangle$ f\"ur alle $\xi\in V$. Dies ist
  \"aquivalent zu $\langle\xi,a-a'\rangle=0$ f\"ur alle $\xi\in
  V$ und gilt insbesondere f\"ur $\xi=a-a'$. Also folgt $a=a'$.   
\end{proof}

\begin{remark}
  Aus diesem Beweis folgt insbesondere, dass $\langle\xi,a\rangle=0$
  f\"ur alle $\xi\in V$ nur f\"ur $a=0$ erf\"ullt sein kann. 
\end{remark}

\begin{remark}
  Sei $f\colon V\to V$ ein Endomorphismus. Ist $a\in V$ fest, so
  definieren wir durch \[\phi(\xi):=\langle f(\xi),a\rangle\] ein
  lineares Funktional $\phi\colon V\to F$: Es gilt
  n\"amlich \[\phi(\lambda b+\mu c) =\langle f(\lambda b+\mu
  c),a\rangle =\lambda\langle f(b),a\rangle +\mu\langle f(c),a\rangle
  =\lambda\phi(b) +\mu\phi(c).\] Nach Theorem \ref{riesz thm} gibt es
  zu $\phi$ ein eindeutig bestimmtes $a_0\in V$ mit
  $\phi(\xi)=\langle\xi,a_0\rangle$ f\"ur alle $\xi\in V$. F\"ur
  fixiertes $f$ ordnen wir auf diese Weise jedem $a\in V$ ein $a_0\in
  V$ zu. Wir bezeichnen diese Zuordnung als $g\colon V\to V$,
  $g(a):=a_0$. $g$ ist durch die Gleichung \[\langle f(\xi),a\rangle
  =\langle\xi,g(a)\rangle \quad\text{f\"ur alle }a,\,\xi\in V\]
  festgelegt. Wir behaupten, dass $g$ eine lineare Abbildung ist. Aus
  der definierenden Gleichung erhalten wir
  \begin{align*}
    \langle\xi,g(\lambda a+\mu b)\rangle =&\,\langle f(\xi),\lambda
    a+\mu b\rangle =\ol\lambda\langle f(\xi),a\rangle +\ol\mu\langle
    f(\xi),b\rangle\\ =&\,\ol\lambda\langle\xi,g(a)\rangle
    +\ol\mu\langle\xi,g(b)\rangle =\langle\xi,\lambda g(a)+\mu
    g(b)\rangle.
  \end{align*}
  Da dies f\"ur alle $\xi\in V$ gilt, erhalten wir $g(\lambda a+\mu
  b)=\lambda g(a)+\mu g(b)$, also die Linearit\"at von $g$. \par
  Wir sagen, dass $g$ die zu $f$ adjungierte Abbildung ist und
  schreiben $g=f^*$. 
\end{remark}

\begin{definition}
  Die zum Endomorphismus $f\colon V\to V$ adjungierte Abbildung
  $f^*\colon V\to V$ ist durch \[\langle f(\xi),\eta\rangle
  =\langle\xi,f^*(\eta)\rangle\quad\text{f\"ur alle }\xi,\eta\in V\]
  definiert. 
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $f\colon\R^3\to\R^3$ durch \[f\left(x^1,x^2,x^3\right):=
    \left(x^1-x^2,-x^1+x^2+2x^3,x^2+x^3\right)\] gegeben. Nach
    Definition gilt $\langle f(x),y\rangle =\langle
    x,g(y)\rangle$. Somit erhalten wir aus
    \begin{align*}
      \langle f(x),y\rangle =&\,\left(x^1-x^2\right)y^1
      +\left(-x^1+x^2+2x^3\right)y^2 +\left(x^2+x^3\right)y^3\\
      =&\,x^1\left(y^1-y^2\right) +x^2\left(-y^1+y^2+y^3\right)
      +x^3\left(2y^2+y^3\right)\\ =&\,\langle x,f^*(y)\rangle
    \end{align*}
    die adjungierte Abbildung
    \[f^*\left(y^1,y^2,y^3\right):=\left(y^1-y^2, -y^1+y^2+y^3,
      2y^2+y^3\right).\]
    Die darstellenden Matrizen bez\"uglich der Standardbasis sind  
    \[
    A_f=
    \begin{pmatrix}
      1&-1&0\\
      -1&1&2\\
      0&1&1
    \end{pmatrix}
    \quad\text{sowie}\quad
    A_{f^*}=
    \begin{pmatrix}
      1&-1&0\\
      -1&1&1\\
      0&2&1
    \end{pmatrix}.
    \]
  \item Im Raum $V=L^2([a,b])$ der auf $[a,b]$ stetigen reellwertigen
    Funktionen mit $L^2$-Skalarprodukt ist
    \begin{align*}
      \Phi\colon V\to&\,V,\\
      \Phi(f)(x):=&\,x\cdot f(x)
    \end{align*}
    selbstadjungiert, \dh es gilt $\Phi^*=\Phi$, denn es
    gilt \[\langle\Phi(f),g\rangle =\langle f,\Phi(g)\rangle.\] 
  \end{enumerate}
\end{beispiele}

Den Zusammenhang zwischen der $f$ und der $f^*$ darstellenden Matrix
haben wir bereits im Beispiel gesehen.
\begin{theorem}\label{adj abb matr thm}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $S$ eine
  Orthonormalbasis. Wird $f\colon V\to V$ bez\"uglich $S$ durch die
  Matrix $A$ dargestellt, so wird die adjungierte Abbildung $f^*\colon
  V\to V$ bez\"uglich $S$ durch die Matrix $A^*$ dargestellt. 
\end{theorem}
\begin{proof}[Beweis]
  Seien $S=(d_1,\ldots,d_n)$, $A=\left(a^i_j\right)_{1\le i,j\le n}$
  und $A_{f^*}=\left(b^i_j\right)_{1\le i,j\le n}$. Wir erhalten 
  \begin{align*}
    f(d_k)=&\,\sum\limits_{i=1}^n a^i_kd_i,\umbruch\\
    f^*(d_l)=&\,\sum\limits_{j=1}^n b^j_ld_j,\umbruch\\
    \langle f(d_k),d_l\rangle =&\,\langle d_k,f^*(d_l)\rangle,\umbruch\\
    \langle f(d_k),d_l\rangle =&\,\left\langle\sum\limits_{i=1}^n
      a^i_kd_i,d_l\right\rangle =\sum\limits_{i=1}^n a^i_k\langle
    d_i,d_l\rangle =\sum\limits_{i=1}^n a^i_k\delta_{il}
    =a^l_k,\umbruch\\
    \langle d_k,f^*(d_l)\rangle =&\,\left\langle
      d_k,\sum\limits_{j=1}^n b^j_ld_j\right\rangle
    =\sum\limits_{j=1}^n \ol{b^j_l}\delta_{kj} =\ol{b^k_l}.
  \end{align*}
  (In den letzten beiden Zeilen sind die jeweils letzten Gleichheiten
  aus Kovarianzgr\"unden unsch\"on geschrieben. F\"ur die
  zugeh\"origen reellen bzw.{} komplexen Zahlen gilt die Gleichheit
  jedoch.) Also ist $a^l_k=\ol{b^k_l}$ f\"ur alle $1\le k,l\le n$. Die
  Behauptung folgt.
\end{proof}

\begin{theorem}\label{f star ker im thm}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $f\colon
  V\to V$ linear. Dann gilt \[\ker f^* =(\im f)^\perp.\] 
\end{theorem}
\begin{proof}[Beweis]
  Es gilt
  \begin{align*}
    \ker f^*=&\,\{\xi\in V\colon f^*(\xi)=0\}\\
    =&\,\{\xi\in V\colon\langle\eta,f^*(\xi)\rangle=0\quad\text{f\"ur
      alle }\eta\in V\}\\
    =&\,\{\xi\in V\colon\langle f(\eta),\xi\rangle=0\quad\text{f\"ur
      alle }\eta\in V\}\\
    =&\,(\im f)^\perp. \qedhere
  \end{align*}
\end{proof}

\begin{beispiel}
  Sei \[\sum\limits_{k=1}^n a^i_kx^k=b^i,\quad 1\le i\le n\] ein
  reelles lineares quadratisches Gleichungssystem. Sei $f\colon\R^n\to\R^n$
  die (bez\"uglich der Standardbasis) durch $A=\left(a^i_j\right)$
  dargestellte Abbildung. Dann ist das lineare Gleichungssystem genau
  dann l\"osbar, wenn $b=\left(b^1,\ldots,b^n\right)\in\im f$
  gilt. Auf $\R^n$ f\"uhren wir das Standardskalarprodukt ein und
  erhalten aus Theorem \ref{f star ker im thm}, dass das lineare
  Gleichungssystem genau dann l\"osbar ist, wenn $b\in(\ker
  f^*)^\perp$ gilt. \"Uber $\R$ wird $f^*$ durch die transponierte
  Matrix dargestellt. Somit folgt: Das lineare Gleichungssystem ist
  genau dann l\"osbar, wenn f\"ur jede L\"osung $y=(y_1,\ldots,y_n)$
  von \[\sum\limits_{i=1}^n a^i_ky_i=0\quad\text{auch}\quad
  \sum\limits_{i=1}^ny_ib^i=0\quad\text{gilt.}\] 
\end{beispiel}

\begin{theorem}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $f\colon
  V\to V$ ein Endomorphismus. Dann haben $f$ und $f^*$ den gleichen
  Rang. 
\end{theorem}
\begin{proof}[Beweis]
  Es gilt
  \begin{align*}
    \rang f=&\,\dim\im f=\dim V-\dim(\im f)^\perp\\
    =&\,\dim V-\dim(\ker f^*)&\text{(Theorem \ref{f star ker im
        thm})}\\
    =&\,\dim(\im f^*) =\rang f^*.
  \end{align*}
  (Alternativ kann man \"uber $\R$ wegen $A^*=A^T$ benutzen, dass
  Zeilenrang und Spaltenrang \"ubereinstimmen.)
\end{proof}

\begin{corollary}
  Sei $A\in\C^{n\times n}$. Dann gilt $\rang A=\rang\ol A$. 
\end{corollary}
\begin{proof}[Beweis]
  Setze $B:=\ol{A}^T$. Da der Rang einer Matrix $B$ mit dem von $B^T$
  \"ubereinstimmt, folgt \[\rang A =\rang B^* =\rang B = \rang B^T
  =\rang\ol A. \qedhere\]
\end{proof}

\Subsection{Diagonalisierung von selbstadjungierten linearen
  Endomorphismen} 
Wir wollen insbesondere zeigen, dass sich solche Endomorphismen sogar
mit Hilfe einer Orthogonalbasis stets diagonalisieren lassen.

\begin{definition}
  Sei $V$ ein Skalarproduktraum. Der Endomorphismus $f\colon V\to V$
  hei\ss{}t selbstadjungiert, wenn \[\langle f(\xi),\eta\rangle
  =\langle\xi,f(\eta)\rangle\] f\"ur alle $\xi,\eta\in V$ gilt, also
  $f=f^*$ ist.
\end{definition}

\begin{theorem}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum mit
  Orthonormalbasis $S$. Der Endomorphismus $f\colon V\to V$ werde
  bez\"uglich $S$ durch die Matrix $A$ beschrieben. Dann ist $f\colon
  V\to V$ genau dann selbstadjungiert, wenn $A=A^*$ gilt. 
\end{theorem}
\begin{proof}[Beweis]
  Dies folgt direkt aus Theorem \ref{adj abb matr thm}. 
\end{proof}

\begin{theorem}\label{sa end char pol zerf thm}
  Sei $V$ ein $n$-dimensionaler Skalarproduktraum. Sei $f\colon V\to
  V$ ein selbstadjungierter Endomorphismus. Dann sind alle Nullstellen
  des charakteristischen Polynoms $\chi_f(X)$ reell, es gilt
  also \[\chi_f(X)=\pm(X-\lambda_1)\cdots (X-\lambda_n)\] f\"ur
  $\lambda_1,\ldots,\lambda_n\in\R$. 
\end{theorem}
\begin{proof}[Beweis]
  Wir betrachten zun\"achst den unit\"aren Fall. Wie jedes Polynom
  zerf\"allt das charakteristische Polynom in Linearfaktoren und wir
  m\"ussen lediglich nachweisen, dass die Eigenwerte von $f$ reell
  sind. Sei also $\lambda$ ein Eigenwert von $f$ zum Eigenvektor
  $\xi$. Wir erhalten \[\lambda\langle\xi,\xi\rangle
  =\langle\lambda\xi,\xi\rangle =\langle f(\xi),\xi\rangle
  =\langle\xi,f(\xi)\rangle =\langle\xi,\lambda\xi\rangle
  =\ol\lambda\langle\xi,\xi\rangle.\] Wegen $\xi\neq0$ bzw.{}
  $\langle\xi,\xi\rangle\neq0$ folgt $\lambda=\ol\lambda$. Somit ist
  $\lambda$ reell. \par
  Im reellen Fall benutzen wir die sogenannte Komplexifizierung. Die
  zu $f\colon V\to V$ geh\"orige reelle symmetrische Matrix definiert
  eine Abbildung $\tilde f\colon\C^n\to\C^n$. Eine reelle symmetrische
  Matrix ist hermitesch, wenn wir sie als komplexe Matrix
  auf"|fassen. Somit ist $\tilde f\colon\C\to\C$ bez\"uglich des
  Standardskalarproduktes auf $\C^n$ selbstadjungiert. Es
  gilt \[\chi_f(X) =\chi_A(X) =\chi_{\tilde f}(X).\] Somit stimmen die
  Eigenwerte von $f$ und $\tilde f$ \"uberein und sind aufgrund der
  obigen \"Uberlegungen reell.
\end{proof}

\begin{theorem}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $f\colon
  V\to V$ ein selbstadjungierter Endomorphismus. Dann besitzt $V$ eine
  Orthonormalbasis aus Eigenvektoren von $f$. 
\end{theorem}
\begin{proof}[Beweis]
  Wir wissen, dass das charakteristische Polynom $\chi_f(X)$ in
  Linearfaktoren zerf\"allt. (Im Fall $F=\C$ folgt dies aus dem
  Fundamentalsatz der Algebra und f\"ur $F=\R$ (und $\C$) aus Theorem
  \ref{sa end char pol zerf thm}.) \par
  Benutze Induktion nach $\dim V=:n$. F\"ur $n=1$ ist die Aussage
  wahr. Sei also $n\ge2$. Sei $a_1$ ein Eigenvektor zum Eigenwert
  $\lambda$ mit $\Vert a_1\Vert=1$. Definiere $W:=\{\xi\in
  V\colon\langle a_1,\xi\rangle=0\}$. Nach Theorem \ref{orth kompl dim
    fml thm} folgt $\dim W=n-1$. $W$ ist ein bez\"uglich $f$
  invarianter Unterraum, es gilt n\"amlich f\"ur $\xi\in W$ \[\langle
  a_1,f(\xi)\rangle =\langle f(a_1),\xi\rangle =\langle\lambda
  a_1,\xi\rangle =\lambda\langle a_1,\xi\rangle=0.\] Es folgt
  $f(\xi)\in W$. Nach Induktionsvoraussetzung existiert eine
  Orthonormalbasis $\{a_2,\ldots,a_n\}$ von $W$ aus Eigenvektoren von
  $f|_W$ und somit auch von $f$. (Dabei verwenden wir das auf $W$
  eingeschr\"ankte Skalarprodukt. Man \"uberzeugt sich leicht davon,
  dass diese Einschr\"ankung wieder ein Skalarprodukt ist.) Also ist
  $\{a_1,a_2,\ldots,a_n\}$ wie behauptet eine Orthonormalbasis.
\end{proof}

\begin{theorem}
  Jeder selbstadjungierte Endomorphismus eines endlichdimensionalen
  Skalarproduktraumes ist diagonalisierbar. 
\end{theorem}
\begin{proof}[Beweis]
  Benutze eine Orthonormalbasis aus Eigenvektoren. Bez\"uglich dieser
  ist die zugeh\"orige Matrix eine Diagonalmatrix mit den Eigenwerten
  entsprechend ihrer Vielfachheit auf der Diagonalen.
\end{proof}

\begin{theorem}
  Sei $A$ eine reelle symmetrische (bzw.{} komplexe hermitesche)
  $(n\times n)$-Matrix. Dann gibt es eine orthogonale (bzw.{}
  unit\"are) Matrix $D$ mit \[DAD^*=
  \begin{pmatrix}
    \lambda_1&0&\ldots&0\\
    0&\lambda_2&\ldots&0\\
    \vdots&\vdots&\ddots&\vdots\\
    0&0&\ldots&\lambda_n
  \end{pmatrix}
  \]
  mit $\lambda_1,\ldots,\lambda_n\in\R$. 
\end{theorem}
\begin{proof}[Beweis]
  Dies folgt direkt aus den bisherigen Theoremen dieses Kapitels, da
  f\"ur orthogonale (bzw.{} unit\"are) Matrizen $D^{-1}=D^*$ gilt. 
\end{proof}

\Subsection{K\"astchenform orthogonaler Matrizen}
Wir wollen unit\"are und orthogonale Endomorphismen bez\"uglich
Orthonormalbasen durch \glqq einfache\grqq{} Matrizen darstellen. 

\begin{theorem}\label{unitaer ev basis thm}
  Sei $f\colon V\to V$ ein unit\"arer Endomorphismus eines
  endlichdimensionalen unit\"aren Vektorraumes $V$. Dann gibt es eine
  Orthonormalbasis von $V$, die aus Eigenvektoren von $f$ besteht. 
\end{theorem}
\begin{proof}[Beweis]
  Wir beweisen dies per Induktion nach $n=\dim V$. Der
  Induktionsanfang ist trivial. Sei $n\ge2$. Das charakteristische
  Polynom zerf\"allt \"uber $\C$ in Linearfaktoren \[\chi_f(X)=
  \pm(X-\lambda_1) (X-\lambda_2) \cdots(X-\lambda_n).\] Nach Theorem
  \ref{ortho eig thm} gilt $|\lambda_i|=1$. Sei $a_1$ ein Eigenvektor
  zum Eigenwert $\lambda_1$ mit $\Vert a_1\Vert=1$. Sei $W$ das
  orthogonale Komplement von $a_1$, $V=W\oplus\langle a_1\rangle$. F\"ur
  jedes $\xi\in W$ gilt \[0=\langle a_1,\xi\rangle =\langle
  f(a_1),f(\xi)\rangle =\lambda_1\langle a_1,f(\xi)\rangle.\] Da
  $\lambda_1\neq0$ gilt, folgt $f(\xi)\in W$. Somit induziert die
  unit\"are Abbildung $f$ eine unit\"are Abbildung $f|_W\colon W\to
  W$. Nach Induktionsvoraussetzung gibt es f\"ur $f|_W$ eine
  Orthonormalbasis aus Eigenvektoren. Zusammen mit $a_1$ erh\"alt man
  wie gew\"unscht eine Orthogonalbasis aus Eigenvektoren.
\end{proof}

\begin{corollary}\label{unitaer diag cor}
  Sei $A\in\C^{n\times n}$ unit\"ar. Dann gibt es eine unit\"are
  Matrix $D$ mit \[DAD^*=
  \begin{pmatrix}
    e^{i\phi_1}&0&\ldots&0\\
    0&e^{i\phi_2}&\ldots&0\\
    \vdots&\vdots&\ddots&\vdots\\
    0&0&\ldots&e^{i\phi_n}
  \end{pmatrix}
  \quad\text{und}\quad 0\le\phi_i<2\pi. 
  \]
\end{corollary}

\begin{lemma}
  Sei $f\colon\R^2\to\R^2$ orthogonal. Fixiere eine
  Orthonormalbasis. Dann gibt es $0\le\phi<2\pi$, so dass $f$
  bez\"uglich dieser Basis durch
  \[
  \begin{pmatrix}
    \cos\phi&-\sin\phi\\
    \sin\phi&\cos\phi
  \end{pmatrix}
  \quad \text{oder} \quad
  \begin{pmatrix}
    \cos\phi&\sin\phi\\
    \sin\phi&-\cos\phi
  \end{pmatrix}
  \]
  dargestellt wird.
\end{lemma}
\begin{proof}[Beweis]
  Wir benutzen Theorem \ref{ortho matr char thm}. Die Spalten und die
  Zeilen der Matrix bilden also eine Orthonormalbasis. Einen
  beliebigen Einheitsvektor in $\R^2$ k\"onnen wir als
  \[\left(\cos\phi, \pm\sqrt{1-\cos^2\phi}\right)
  =(\cos\phi,\pm\sin\phi)\] 
  schreiben. Somit ist $f$ durch eine Matrix der Form
  \[
  \begin{pmatrix}
    \cos\phi&\pm\sin\phi\\
    \pm\sin\phi&\pm\cos\phi
  \end{pmatrix}
  \]
  dargestellt. Man \"uberzeugt sich leicht, dass die Vorzeichen
  f\"ur $\sin\phi\neq0$ bzw.{} $\cos\phi\neq0$ wie angegeben gew\"ahlt
  werden m\"ussen um eine orthogonale Matrix zu erhalten. Ggf.{} ist
  $\phi$ durch $-\phi+2\pi k$, $k\in\Z$, zu ersetzen um Vorzeichen
  abzu\"andern. 
\end{proof}

Durch eine spezielle Basiswahl k\"onnen wir K\"astchen der zweiten
Form ausschlie\ss{}en. 
\begin{theorem}
  Sei $f\colon V\to V$ eine orthogonale Selbstabbildung eines
  euklidischen Vektorraumes mit $\dim V<\infty$. Dann gibt es eine
  Orthonormalbasis von $V$, in der sich $f$ in der Form 
  \[
  \begin{pmatrix}
    \eins_k&0&0&0&\ldots&0&0\\
    0&-\eins_l&0&0&\ldots&0&0\\
    0&0&
    \begin{smallmatrix}
      \cos\phi_1&-\sin\phi_1\\
      \sin\phi_1&\cos\phi_1
    \end{smallmatrix}
    &0&\ldots&0&0\\
    0&0&0&&&&0\\
    \vdots&\vdots&\vdots&&\ddots&&\vdots\\
    0&0&0&&&&0\\
    0&0&0&0&\ldots&0&
    \begin{smallmatrix}
      \cos\phi_m&-\sin\phi_m\\
      \sin\phi_m&\cos\phi_m
    \end{smallmatrix}
  \end{pmatrix}
  \]
  mit $k+l+2m=\dim V$ darstellen l\"asst. \par
  (In \glqq Matrizensprache\grqq{} \"ubersetzt erhalten wir: Zu jeder
  orthogonalen Matrix $A$ gibt es also eine orthogonale Matrix $D$, so
  dass $DAD^T$ von der angegebenen Gestalt ist.)
\end{theorem}
\begin{proof}[Beweis]
  Verm\"oge einer Matrixdarstellung $A\in\R^{\dim V\times\dim V}$
  ordnen wir $f$ wiederum eine Abbildung $\tilde f\colon\C^n\to\C^n$
  zu. Wegen $A^*A=A^TA=\eins$ ist $A$ als Matrix in $\C^{n\times n}$
  unit\"ar. Nach Theorem \ref{unitaer ev basis thm} gibt es eine
  Orthonormalbasis aus Eigenvektoren f\"ur $\tilde f$ zu Eigenwerten
  $\lambda_i$ mit $|\lambda_i|=1$. Zu jedem $\lambda_i$ mit
  $\lambda_i=\pm1$ finden wir einen reellen Eigenvektor zu diesem
  Eigenwert, den Realteil des komplexen Eigenvektors (falls dieser
  Realteil $\neq0$ ist): Aus $A\xi=\lambda_i\xi$ folgt
  $A\ol\xi=\lambda_i\ol\xi$ und $A\left(\xi+\ol\xi\right)
  =\lambda_i\left(\xi+\ol\xi\right)$. Daher ist $\Real\xi$ ein
  Eigenvektor oder der Nullvektor. Ist $\Real\xi$ der Nullvektor, so
  ist $i\xi$ ein reeller Eigenvektor. \par
  Da das orthogonale Komplement eines Eigenvektors jeweils invariant
  unter $f$ ist, erhalten wir induktiv die beiden Bl\"ocke $\eins_k$
  und $\eins_l$.\par Sei $\xi$ mit $|\xi|=1$ ein Eigenvektor zum
  Eigenwert $e^{i\phi}\not\in\{-1,1\}$, $A\xi=e^{i\phi}\xi$. Durch
  komplexe Konjugation erhalten wir einen zweiten Eigenvektor:
  $A\ol\xi=e^{-i\phi}\ol\xi$. Setze $u:=\xi+\ol\xi$ und
  $v:=-i\left(\xi-\ol\xi\right)$. Da $\xi$ und $\ol\xi$ wegen
  $e^{i\phi}\not\in\{-1,1\}$ Eigenvektoren von $A$ zu
  unterschiedlichen Eigenwerten sind, gilt $\xi\neq\pm\ol\xi$ und
  somit $u\neq0\neq v$. Wir erhalten
  \begin{align*}
    Au=&\,A\xi+A\ol\xi=e^{i\phi}\xi+e^{-i\phi}\ol\xi
    =\frac{e^{i\phi}+e^{-i\phi}}2\left(\xi+\ol\xi\right)
    +\frac{e^{i\phi}-e^{-i\phi}}2\left(\xi-\ol\xi\right)\\
    =&\,\cos\phi\cdot u-\sin\phi\cdot v,\\
    -\frac1iAv=&\,A\xi-A\ol\xi =e^{i\phi}\xi-e^{-i\phi}\ol\xi
    =\frac{e^{i\phi}-e^{-i\phi}}2\left(\xi+\ol\xi\right)
    +\frac{e^{i\phi}+e^{-i\phi}}2\left(\xi-\ol\xi\right)\\
    =&\,i\sin\phi\cdot u+\cos\phi\cdot\frac v{-i},\\
    Av=&\,\sin\phi\cdot u+\cos\phi\cdot v.
  \end{align*}
  Wir w\"ahlen $\frac1{\sqrt2}u$ und $\frac1{\sqrt2}v$ als Teil einer
  reellen Orthonormalbasis. Beachte dazu, dass aus
  $\left\langle\xi,\ol\xi\right\rangle_{\C}=0$ die Relationen
  $\left\Vert\xi+\ol\xi\right\Vert^2=2$,
  $\left\Vert-i\left(\xi-\ol\xi\right)\right\Vert^2=2$ und
  $\left\langle\xi+\ol\xi,-i\left(\xi-\ol\xi\right)\right\rangle=0$
  folgen, zun\"achst mit komplexen Skalarprodukten und Normen. Da die
  Eintr\"age aber reell sind, gelten dieselben Beziehungen auch \"uber
  $\R$ und zugeh\"origen Skalarprodukten und Normen.  Dies liefert den
  ersten Block:
  \[
  \begin{pmatrix}
    \cos\phi&\sin\phi\\
    -\sin\phi&\cos\phi
  \end{pmatrix}
  =
  \begin{pmatrix}
    \cos\phi_1&-\sin\phi_1\\
    \sin\phi_1&\cos\phi_1
  \end{pmatrix}, 
  \quad \phi_1=-\phi.
  \] 
  Da beide Zeilen und Spalten, die durch diesen Block verlaufen,
  bereits \glqq in diesem Block L\"ange Eins haben\grqq, enthalten sie
  sonst nur Nullen. Die restlichen Bl\"ocke erh\"alt man per
  Induktion.
\end{proof}

\Subsection{Normale Matrizen}
\begin{definition}
  Sei $A$ eine quadratische Matrix \"uber $\R$ oder $\C$. Dann
  hei\ss{}t $A$ normal, falls \[A^*A=AA^*\] gilt. \par Ein
  Endomorphismus $f$ eines Skalarproduktraumes hei\ss{}t normal, wenn
  $f\circ f^*=f^*\circ f$ gilt. 
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Unit\"are ($A^{-1}=A^*$), hermitesche ($A=A^*$) und Matrizen
    mit $A=-A^*$ sind normal.
  \item Orthogonale ($A^{-1}=A^T$), symmetrische ($A=A^T$) und
    schiefsymmetrische Matrizen ($A=-A^T$) sind normal. \par Resultate
    f\"ur solche Matrizen werden wir einheitlicher f\"ur normale
    Matrizen behandeln.
  \item Es gibt weitere normale Matrizen, \zB 
    \[A=
    \begin{pmatrix}
      1&1&0\\
      0&1&1\\
      1&0&1
    \end{pmatrix},
    \]
    denn es gilt
    \begin{align*}
    AA^T=&\,
    \begin{pmatrix}
      1&1&0\\
      0&1&1\\
      1&0&1
    \end{pmatrix}
    \begin{pmatrix}
      1&0&1\\
      1&1&0\\
      0&1&1
    \end{pmatrix}
    =
    \begin{pmatrix}
      2&1&1\\
      1&2&1\\
      1&1&2
    \end{pmatrix}\\
    =&\,
    \begin{pmatrix}
      1&0&1\\
      1&1&0\\
      0&1&1
    \end{pmatrix}
    \begin{pmatrix}
      1&1&0\\
      0&1&1\\
      1&0&1
    \end{pmatrix}
    =
    A^TA.
    \end{align*}
  \end{enumerate}
\end{beispiele}

\begin{theorem}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum. Sei $f$ ein
  normaler Endomorphismus. Dann gelten \[\ker f=\ker f^*
  \quad\text{und}\quad \im f=\im f^*.\] Insbesondere folgt $V=\ker
  f\oplus\im f$, wobei die Summanden senkrecht zueinander sind, $\ker
  f\perp\im f$.
\end{theorem}
\begin{proof}[Beweis]
  Aus $v\in\ker f$ erhalten wir \[0=\langle f(v),f(v)\rangle =\langle
  v,f^*(f(v))\rangle =\langle v,f(f^*(v))\rangle =\langle
  f^*(v),f^*(v)\rangle.\] Somit gilt auch $v\in\ker f^*$.\par
  Aus Theorem \ref{f star ker im thm} wissen wir, dass $\ker f^* =(\im
  f)^\perp$ gilt. Somit folgt \[(\im f)^\perp =\ker f^* =\ker f =(\im
  f^*)^\perp.\] Da $V$ endlichdimensional ist, folgt auch $\im f=\im
  f^*$.
\end{proof}

\begin{corollary}\label{eig raum f stern cor}
  Sei $V$ ein endlichdimensionaler Skalarproduktraum (\"uber $\R$
  oder $\C$). Sei $f\colon V\to V$ normal. Sei $\lambda\in\C$ bzw.{}
  $\in\R$. Dann gilt f\"ur die zugeh\"origen
  Eigenr\"aume \[E_\lambda(f) =E_{\bar\lambda}(f^*).\] 
\end{corollary}
\begin{proof}[Beweis]
  Setze $g:=f-\lambda\id$. Dann ist $g^*=f^*-\bar\lambda\id$. $g$ ist
  ebenfalls normal, denn es gilt \[g\circ g^* =\underbrace{f\circ
    f^*}_{=f^*\circ f} -\lambda f^* -\bar\lambda f
  +\lambda\bar\lambda\id =g^*\circ g.\] Somit erhalten
  wir \[E_\lambda(f) =\ker g =\ker g^*
  =E_{\bar\lambda}(f^*). \qedhere\]
\end{proof}

Wir k\"onnen normale Endomorphismen nicht nur diagonalisieren; dies
ist auch eine notwendige Bedingung f\"ur die orthogonale
Diagonalisierbarkeit. Der folgende Satz funktioniert aber nur f\"ur
komplexe Matrizen. Drehmatrizen sind Beispiele f\"ur reelle
orthogonale und daher auch normale aber nicht reell diagonalisierbare
Matrizen.
\begin{theorem}\label{normal diag thm}
  Sei $V$ ein endlichdimensionaler unit\"arer Skalarproduktraum mit
  $\dim V=n$.  Sei $f\colon V\to V$ linear. Dann sind die folgenden
  Bedingungen \"aquivalent:
  \begin{enumerate}[(i)]
  \item Es gibt eine Orthonormalbasis aus Eigenvektoren von $f$.
  \item $f$ ist normal. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]\neueZeilealt
  \Hinrichtung Sei $a_1,\ldots,a_n$ eine Orthonormalbasis aus
  Eigenvektoren von $f$ mit $f(a_i)=\lambda_ia_i$. Wir
  erhalten \[\langle a_j,f^*(a_i)\rangle =\langle f(a_j),a_i\rangle
  =\lambda_j\langle a_j,a_i\rangle =\left\langle
    a_j,\ol{\lambda_i}a_i\right\rangle.\] Somit ist
  $f^*(a_i)=\bar\lambda_i a_i$. F\"ur diese Basisvektoren
  gilt \[f(f^*(a_i)) =\bar\lambda_if(a_i) =\bar\lambda_i\lambda_i a_i
  =\lambda_i f^*(a_i) =f^*(f(a_i)).\] Da es gen\"ugt, Normalit\"at
  f\"ur eine Basis nachzurechnen, ist $f$ normal. \par
  \Rueckrichtung Sei umgekehrt $f$ normal. \"Uber $\C$ zerf\"allt das
  charakteristische Polynom in Linearfaktoren. W\"ahle einen
  normierten Eigenvektor $a_1$ zum Eigenvektor $\lambda_1$ und
  definiere $E_{\lambda_1}:=\langle a_1\rangle$. Setze
  $W:=E_{\lambda_1}^\perp$. Es gilt $\dim W=n-1$. K\"onnen wir zeigen,
  dass $W$ ein $f$-invarianter Unterraum von $V$ ist und dass $f|_W$
  normal ist, so folgt die Behauptung per Induktion nach der Dimension
  des Vektorraumes. Es gilt f\"ur $w\in W$ \[\langle f(w),a_1\rangle
  =\langle w,f^*(a_1)\rangle =\langle w,\bar\lambda_1a_1\rangle
  =\lambda_1\langle w,a_1\rangle =0.\] Somit ist $W$ ein
  $f$-invarianter Unterraum. Da $E_{\lambda_1}$ auch in einem
  Eigenraum der normalen Abbildung $f^*$ enthalten ist, gilt auch
  $f^*(W)\subset W$. Da $W$ f\"ur $f$ und f\"ur $f^*$ ein invarianter
  Unterraum ist und $(f|_W)^*=f^*|_W$ gilt, ist $f|_W$ ebenfalls
  normal und die Behauptung folgt.
\end{proof}

F\"ur Matrizen umformuliert erhalten wir
\begin{corollary}
  Sei $A\in\C^{n\times n}$. Dann ist $A$ genau dann normal, wenn es
  eine unit\"are Matrix $S\in\C^{n\times n}$ gibt, so dass $SAS^{-1}$
  diagonal ist. 
\end{corollary}

\begin{theorem}\label{glz diag thm}
  Seien $A,B\in\C^{n\times n}$ normal und gelte $[A,B]=AB-BA=0$. Dann
  gibt es eine unit\"are Matrix $U$, so dass $UAU^*$ und $UBU^*$
  diagonal sind. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $\lambda_1$ ein Eigenwert von $A$ und sei $V_1$ der zugeh\"orige
  Eigenraum. Sei $v_1\in V_1$. Aus $AB=BA$ folgt \[A(Bv_1) =BAv_1
  =\lambda_1(Bv_1).\] Somit gilt $Bv_1\in V_1$. $V_1$ ist also ein
  invarianter Unterraum f\"ur $A$ und $B$. \par Definiere
  $W_1:=V_1^\perp$. Wir behaupten, dass $W_1$ auch ein invarianter
  Unterraum f\"ur $A$ und $B$ ist. Wir argumentieren wie in Theorem
  \ref{normal diag thm}.  Nach Korollar \ref{eig raum f stern cor}
  gilt $A^*v=\bar\lambda_1v$ f\"ur alle $v\in V_1$.  Seien $v\in V_1$
  und $w\in W_1$ beliebig. Dann gilt \[\langle Aw,v\rangle =\langle
  w,A^*v\rangle =\langle w,\bar\lambda_1v\rangle =\lambda_1\langle
  w,v\rangle=0.\] Wir erhalten $AW_1\subset V_1^\perp=W_1$. \par
  Zu $BW_1\subset W_1$: Nach Definition von $V_1$ ist
  $V_1=\ker(A-\lambda_1\eins)$, wobei wir Matrizen und zugeh\"orige
  Abbildungen identifizieren. Wir haben gezeigt, dass $AW_1\subset
  W_1$ gilt. Somit folgt auch $(A-\lambda_1\eins)W_1\subset W_1$. Da
  $V_1\oplus W_1=V$ gilt und $W_1$ endlichdimensional ist, ist
  $(A-\lambda_1\eins)|_{W_1}\colon W_1\to W_1$ bijektiv. Also gelten
  $(A-\lambda_1\eins)V=W_1$ und $W_1=(A-\lambda_1\eins)W_1$. Wir
  erhalten \[BW_1=B(A-\lambda_1\eins)W_1 =(A-\lambda_1\eins)BW_1
  \subset (A-\lambda_1\eins)V =W_1.\] \par Die Zerlegung $V=V_1\oplus
  W_1$ in orthogonale unter $A$ und $B$ invariante Unterr\"aume
  impliziert, dass $A$ und $B$ (nach einer unit\"aren Transformation)
  in Blockgestalt sind. Der zu $V_1$ geh\"orige Block ist f\"ur $A$
  ein Vielfaches der Einheitsmatrix.  Die Normalit\"at \"ubertr\"agt
  sich aufgrund der Blockgestalt auf jeden der einzelnen Bl\"ocke,
  ebenso $[A,B]=0$.  Mit Theorem \ref{normal diag thm} k\"onnen wir
  den zu $V_1$ geh\"origen Block von $B$ diagonalisieren: Die
  zugeh\"orige unit\"are Transformationsmatrix l\"a\ss{}t sich zu
  einer unit\"aren Matrix von $V$ erweitern. Der zu $W_1$ geh\"orige
  Block ist kleiner als die Matrizen $A$ und $B$. Somit folgt die
  Aussage per Induktion.
\end{proof}

\begin{corollary}
  Seien $A,B\in\C^{n\times n}$ normale Matrizen, die kommutieren, \dh
  gelte $AB=BA$. (Oder der Kommutator $[A,B]:=AB-BA$ verschwindet:
  $[A,B]=0$) Dann sind $AB$ und $A+B$ ebenfalls normal.
\end{corollary}
\begin{proof}[Beweis]
  Die Eigenschaften, normal zu sein und zu kommutieren gelten genau
  dann f\"ur $A$ und $B$, wenn sie f\"ur $UAU^{-1}$ und $UBU^{-1}$
  gelten. Verwende nun Theorem \ref{glz diag thm}. F\"ur
  Diagonalmatrizen ist die Aussage klar. 
\end{proof}

\begin{theorem}
  Sei $A\in\C^{n\times n}$. Dann sind die folgenden Aussagen sind
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{normal i} $A$ ist normal.
  \item\label{normal ii} $A$ l\"asst sich durch eine unit\"are Matrix
    diagonalisieren.
  \item\label{normal iii} Es gibt eine Orthonormalbasis aus
    Eigenvektoren von $A$.
  \item\label{normal iv} Es gilt $\Vert Ax\Vert=\Vert A^*x\Vert$ f\"ur
    alle $x\in\C^n$.
  \item\label{normal v} Der \glqq hermitesche Anteil\grqq{}
    $\frac12(A+A^*)$ und der \grqq anti-hermitesche Anteil\grqq{}
    $\frac12(A-A^*)$ kommutieren. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  Die \"Aquivalenz von \eqref{normal i}, \eqref{normal ii} und
  \eqref{normal iii} haben wir bereits gezeigt.\par
  Klar ist \eqref{normal i} $\Longrightarrow$ \eqref{normal iv}. Gelte
  umgekehrt \eqref{normal iv}. Wir erhalten nacheinander
  \begin{align*}
    \langle Ax,Ax\rangle =&\,\langle A^*x,A^*x\rangle,\\
    \langle x,A^*Ax\rangle =&\,\langle x,AA^*x\rangle,\\
    0=&\,\langle x,[A,A^*]x\rangle,
  \end{align*}
  jeweils f\"ur alle $x\in\C^n$. Da $[A,A^*]^*=[A,A^*]$ gilt, ist
  $[A,A^*]$ normal und daher diagonalisierbar. Somit folgt aus der
  letzten Zeile $[A,A^*]=0$, also \eqref{normal i}. \par
  \eqref{normal i} $\Longleftrightarrow$ \eqref{normal v} folgt direkt
  aus \[[(A+A^*),(A-A^*)]=2[A^*,A].\] Von dieser Gleichheit
  \"uberzeugt man sich durch eine einfache direkte Rechnung. 
\end{proof}

\begin{definition}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Eine Matrix $A=\left(a^i_j\right)_{1\le i\le j}\in\C^{n\times
      n}$ hei\ss{}t positiv semidefinit, falls sie hermitesch ist
    und \[\langle x,Ax\rangle\ge0 \quad\text{f\"ur alle }x\in\C^n\]
    gilt. Schreibweise: $A\ge0$, $\left(a^i_j\right)\ge0$ oder
    $A\succcurlyeq0$, $\left(a^i_j\right)\succcurlyeq0$, auch
    $a^i_j\ge0$ oder $a^i_j\succcurlyeq 0$, falls dies nicht mit der
    Positivit\"at der Eintr\"age verwechselt werden kann.
  \item Gilt zus\"atzlich $\langle x,Ax\rangle >0$ f\"ur alle
    $x\in\C^n\setminus\{0\}$, so hei\ss{}t $A$ positiv definit. Wir
    schreiben $A>0$, $\left(a^i_j\right)>0$ oder $A\succ0$,
    $\left(a^i_j\right)\succ0$ bzw.{} $a^i_j>0$ oder $a^i_j\succ0$.
  \item Sei $V$ ein Skalarproduktraum. Dann hei\ss{}t ein
    Endomorphismus $f$ (oder eine darstellende Matrix) positiv
    semidefinit (bez\"uglich dieses Skalarproduktes), falls $\langle
    x,f(x)\rangle\ge0$ f\"ur alle $x\in V$ gilt. Wir schreiben
    $f\succcurlyeq0$. Gilt $\langle x,f(x)\rangle>0$ f\"ur alle $x\in
    V\setminus\{0\}$, so hei\ss{}t $f$ strikt positiv definit,
    $f\succ0$. 
  \end{enumerate}
\end{definition}

\begin{lemma}
  Sei $A\in\C^{n\times n}$ positiv semidefinit. Dann gibt es eine
  eindeutig bestimmte positiv semidefinite Quadratwurzel, \dh eine
  positiv semidefinite Matrix $\sqrt A\in\C^{n\times n}$, so dass
  $\sqrt A\sqrt A=A$ gilt.
\end{lemma}
\begin{proof}[Beweis]
  Da $A$ normal ist, gibt es eine unit\"are Matrix $U$, so dass
  $U^*AU$ diagonal ist. Die Diagonaleintr\"age von $U^*AU$ sind nicht
  negativ. Somit gibt es eine (reelle) Diagonalmatrix $B$ mit
  nichtnegativen Diagonaleintr\"agen und $BB=U^*AU$. Die gesuchte
  Matrix ist $\sqrt A=UBU^*$. Da $B$ eine Diagonalmatrix mit
  nichtnegativen Eintr\"agen ist, sieht man direkt, dass $\sqrt A$
  positiv semidefinit ist. $\sqrt A\sqrt A=A$ ist einfach
  nachzurechnen. \par Sei $C$ eine weitere Quadratwurzel von $A$. Da
  $C$ hermitesch ist, gibt es eine Orthonormalbasis $\{a_i\}$ aus
  Eigenvektoren von $C$ zu Eigenwerten $\lambda_i$. Wir
  erhalten \[Aa_i =CCa_i =\lambda_i^2a_i.\] Somit sind die Werte
  $\lambda_i^2$ als Eigenwerte von $A$ eindeutig bestimmt. Aufgrund
  der positiven Semidefinitheit sind auch die Werte $\lambda_i\ge0$
  eindeutig bestimmt. Die obigen Gleichungen liefern, dass ein
  Eigenraum von $A$ zum Eigenwert $\lambda_i^2$ ein Eigenraum von $C$
  zum Eigenwert $\lambda_i$ ist. Somit ist $C$ eindeutig bestimmt.
\end{proof}

Das folgende Theorem verallgemeinert die Darstellung einer komplexen
Zahl in der Form $re^{i\phi}$ auf Matrizen. 
\begin{theorem}[Polarzerlegung]
  Sei $A\in\C^{n\times n}$. Dann gibt es eine unit\"are Matrix $U$ und
  eine positiv semidefinite Matrix $S$, so dass $A=US$ gilt. \par
  $S$ ist eindeutig bestimmt. Ist $A$ invertierbar, so ist die
  Zerlegung eindeutig.
\end{theorem}
\begin{proof}[Beweis]
  Die Matrix $A^*A$ ist hermitesch und positiv semidefinit. Setze
  $S:=\sqrt{A^*A}$. Gibt es solch eine Zerlegung, so ist $S$ eindeutig
  bestimmt, denn es gilt \[A^*A=S^*U^*US=S^*S=S^2\] und die Wurzel ist
  eindeutig bestimmt. \par
  Sei $A=\tilde U\tilde S$ eine weitere solche Zerlegung. Es gilt
  $\tilde S=S$. Ist $A$ invertierbar, so ist auch $S$ invertierbar und
  aus $US=\tilde US$ folgt $U=\tilde U$. \par
  Sei $(a_1,\ldots,a_s)$ eine Orthonormalbasis aus Eigenvektoren von
  $S$: $Sa_i=\sqrt{\lambda_i}a_i$ mit $s$ so dass
  $\lambda_1,\ldots,\lambda_s>0$ und
  $\lambda_{s+1},\ldots,\lambda_n=0$ gelten. Es folgt \[\langle
  Aa_i,Aa_j\rangle =\langle a_i,A^*Aa_j\rangle =\left\langle
    a_i,S^2a_j\right\rangle =\langle a_i,\lambda_ja_j\rangle
  =\lambda_j\delta_{ij},\] da $\lambda_i\in\R$ f\"ur $1\le i\le n$
  gilt. Somit sind die Vektoren \[\left(\frac{Aa_1}{\sqrt{\lambda_1}},
    \ldots, \frac{Aa_s}{\sqrt{\lambda_s}}\right)=:(w_1,\ldots,w_s)\]
  orthonormiert. Erg\"anze $(w_1,\ldots,w_s)$ zu einer
  Orthonormalbasis $(w_1,\ldots,w_n)$ von $V=\C^n$. Sei $U$ die
  unit\"are Matrix mit $Ua_i=w_i$ f\"ur $1\le i\le n$, \dh es gilt
  $U=(w_1,\ldots,w_n)(a_1,\ldots,a_n)^*$, wobei wir hintereinander
  geschriebene Vektoren in $\C^n$ als Matrizen auf"|fassen. Dann gilt
  f\"ur $i=1,\ldots,s$ \[USa_i =U\sqrt{\lambda_i}a_i
  =\sqrt{\lambda_i}w_i =Aa_i.\] Sei nun $i\in\{s+1,\ldots,n\}$. Dann
  ist $a_i\in\ker S=\ker A^*A$. Wir behaupten, dass bereits $Aa_i=0$
  gilt. Es gelten $Aa_i\in\ker A^*$ und $Aa_i\in\im A$. Nach Theorem
  \ref{f star ker im thm} gilt $\ker A^*\perp\im A$. Somit ist
  $Aa_i=0$. Es folgt $USa_i=0=Aa_i$. Da $A=US$ f\"ur beliebige
  Basiselemente $a_i$, $1\le i\le n$, gilt, folgt die Behauptung.
\end{proof}
Beachte, dass $U$ auf dem Erzeugnis der Eigenr\"aume von $S$ zu
positiven Eigenwerten stets eindeutig bestimmt ist. 

Die folgende Zerlegung wird h\"aufig ebenfalls als Polarzerlegung
bezeichnet. 
\begin{corollary}
  Sei $A\in\C^{n\times n}$. Dann gibt es eine unit\"are Matrix $U$ und
  eine positiv semidefinite Matrix $S$, so dass $A=SU$ gilt. $S$ ist
  eindeutig bestimmt. Ist $A$ invertierbar, so ist die Zerlegung
  eindeutig. 
\end{corollary}
\begin{proof}[Beweis]
  Die Polarzerlegung $A^*=\tilde U\tilde S$ liefert eine Zerlegung
  $A=\tilde S^*\tilde U^*$, also von der angegebenen Form. Die
  Eindeutigkeit von $S$ folgt aus $A^*A=SU^*US=S^2$. Die Eindeutigkeit
  von $U$ folgt wie bei der Polarzerlegung. 
\end{proof}

\begin{lemma}
  Sei $A\in\C^{n\times n}$. Dann sind die folgenden Aussagen
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{normal a} $A$ ist normal.
  \item\label{normal b} In der Polarzerlegung $A=US$ kommutieren $S$
    und $U$.
  \item\label{normal c} In der Zerlegung $A=SU$ kommutieren $S$ und
    $U$.
  \item\label{normal d} Es gibt eine unit\"are Matrix $W$ mit
    $A^*=AW$.
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeilealt
  \glqq\eqref{normal a}$\Longrightarrow$ \eqref{normal b}\grqq:
  Sei $W$ unit\"ar, so dass $WAW^*$ diagonal ist,
  \[WAW^*=\diag\left\{r_1e^{i\phi_1},\ldots,r_ke^{i\phi_k},
    0,\ldots,0\right\}\] mit $r_i>0$, $0\le\phi_i<2\pi$ f\"ur $1\le
  i\le k$ und ein $k\in\N$. Die zugeh\"orige Polarzerlegung hat dann
  die Gestalt $WAW^*=\tilde S\tilde U$, wobei \[\tilde
  S=\diag\left\{r_1,\ldots,r_k,0,\ldots 0\right\}\] und \[\tilde
  U=\diag\left\{e^{i\phi_1},\ldots,e^{i\phi_k},U_0\right\}\] sind und
  $U_0$ eine unit\"are Matrix bezeichnet, der letzte Eintrag also als
  Block zu verstehen ist. Dann gilt $A=\big(W^*\tilde SW\big)
  \big(W^*\tilde UW\big)$ und die beiden Ausdr\"ucke in Klammern
  entsprechen gerade der Polarzerlegung. Man sieht direkt, dass diese
  Matrizen vertauschen.

  \glqq\eqref{normal b}$\Longrightarrow$ \eqref{normal a}\grqq: Sei
  $A=SU=US$. Dann folgen $A^* =S^*U^* =SU^*$, $A^* =U^*S^* =U^*S$
  und \[A^*A-AA^* =SU^*US-SUU^*S =S^2-S^2=0.\]

  \glqq\eqref{normal b}$\Longleftrightarrow$ \eqref{normal c}\grqq:
  Ist offensichtlich wenn $A$ invertierbar und $U$ daher eindeutig
  bestimmt ist.\par Sonst seien $A=SU=SV$ zwei Polarzerlegungen. Aus
  dem Beweis der Existenz der Polarzerlegung geht hervor, dass $U$ und
  $V$ auf den Eigenr\"aumen von $S$ zu positiven $\lambda_i$'s
  \"ubereinstimmen m\"ussen und sich nur um eine unit\"are
  Transformation $K$ von $\ker S\subset\C^n$ unterscheiden
  k\"onnen. $K$ sei auf $\C^n$ durch die Identit\"at/Einheitsmatrix
  fortgesetzt. Die Matrix $K$ entspricht den unterschiedlichen
  Basiserg\"anzungen im Beweis. Es gilt also $V=KU$. Da $K$ sich nur
  auf $\ker S$ von der Identit\"at unterscheidet und $K(\ker
  S)\subset\ker S$ gilt, folgt $KS=SK$. Gelte also $SU=US$ und
  $SU=SV$. Aus $SV=SKU=KSU=KUS=VS$ und derselben Argumentation im Fall
  $VS$, angewandt auf $(US)^*=(SU)^*=(VS)^*$, erhalten wir die
  Behauptung.

  \glqq\eqref{normal c}$\Longrightarrow$ \eqref{normal d}\grqq:
  Schreibe $A=SU$ mit $[U,S]=0$. Wir erhalten $A=US$ und daraus $A^*
  =S^*U^* =SU^* =SUU^*U^* =AU^*U^*$. $U^*$ ist unit\"ar, da $U$
  unit\"ar ist: $U^*=U^{-1}$ liefert ${U^*}^*=\left(U^*\right)^{-1}$. 

  \glqq\eqref{normal d}$\Longrightarrow$ \eqref{normal a}\grqq:
  Aus $A^*=AU$ folgt einerseits
  \begin{align*}
    A=&\,AUU^* =A^*U^*
    \intertext{und andererseits}
    A=&\,(A^*)^* =(AU)^* =U^*A^*,
    \intertext{somit ergeben sich also}
    A^*U^* =&\,U^*A^*
    \intertext{und}
    UA =&\,AU.
  \end{align*}
  Zusammengenommen erhalten wir
  \[A^*A-AA^* =(AU)A-A(AU) =AAU-AAU =0.\]
  Somit ist $A$ normal. 
\end{proof}

\iffalse
\Section{Minimalpolynome und Jordansche Normalform}
\Subsection{Minimalpolynome}
Sei $f\colon V\to V$ ein Endomorphismus, durch $A$ dargestellt. Wir
setzen $A^n:=\underbrace{A\cdot A\cdot\ldots\cdot A}_{n-\text{mal}}$
und $A^0:=\eins$. Damit k\"onnen wir eine Matrix auch in ein
Polynom \[p(X)=\sum\limits_{i=0}^na_iX^i,\quad p\in F[X],\]
einsetzen, \[p(A):=\sum\limits_{i=0}^n a_iA^i.\] Die Abbildung
\begin{align*}
  \Phi_A\colon F[X]\to&\,\End(V),\\
  p(X)\mapsto&\,p(A)
\end{align*}
hei\ss{}t Einsetzungshomomorphismus. Sie ist ein Homomorphismus von
Ringen (es gilt $\Phi_A(p+q)=\Phi_A(p)+\Phi_A(q)$ und $\Phi_A(p\cdot
q)=\Phi_A(p)\cdot\Phi_A(q)$) und von $F$-Vektorr\"aumen. (Beachte,
dass dabei nicht nur $X$ durch $A$, sondern auch $a\in F$ durch
$a\cdot\eins\equiv a\cdot A^0$ ersetzt wird. Bei Polynomringen in
mehreren (kommutierenden) Variablen wird das Einsetzen von Matrizen
f\"ur die Variablen problematisch wenn die Matrizen nicht
vertauschen.)\par
Das Bild \[F[A]\equiv\{p(A)\colon p(X)\in F[X]\}\subset\End(V)\] ist
ein kommutativer Unterring des i.\,a.{} nicht kommutativen Ringes
$\End(V)$. \par Der Kern \[I_A:=\{p(X)\in F[X]\colon p(A)=0\}\subset
F[X]\] hei\ss{}t Ideal von $A$. 
\begin{theorem}[Cayley-Hamilton]
  Sei $f\colon V\to V$ ein Endomorphismus, $\dim V<\infty$. Sei
  $\chi_f$ das charakteristische Polynom zu $f$, $A$ die $f$
  bez\"uglich einer beliebigen Basis darstellende Matrix und $\chi_A$
  das charakteristische Polynom von $A$. Dann gelten
  \[\chi_f(f)=0\quad\text{und}\quad\chi_A(A)=0.\] 
\end{theorem}
Achtung, bei einer Rechnung \[\chi_A(A) \neq\det(A-A\cdot\eins)
=\det(A-A) =\det 0=0\] hat man an der Stelle \glqq$\neq$\grqq{} die 
Polynomvariable $X$ in $X\cdot\eins$ durch $A$ ersetzt; richtig w\"are
aber gewesen, $\det$ als Polynom aufzufassen. Wie man dies in der
Determinante aufschreibt, ergibt sich aus dem folgenden Beweis. 
\begin{proof}[Beweis]
  Es gen\"ugt, den Satz f\"ur Matrizen zu beweisen. Definiere
  $B(X):=(A-X\eins)^T$. Es gilt $\det B(X)=\chi_A(X)$. Sei
  $B^{\text{adj}}(X)$ die adjunkte Matrix zu $B(X)$ wie in
  \cite[Kap.{} Determinanten]{OSLA1}. 
  Dann folgt 
  \begin{equation}\label{B adj eq}
    B^{\text{adj}}(X)\cdot B(X) =\det
    B(X)\eins =\chi_A(X)\cdot\eins.
  \end{equation} 
  Setzen wir nun statt $X$ die Matrix $A$ ein, wenden also den
  Einsetzungshomomorphismus auf jede Komponente an, so erhalten wir
  eine Matrix mit Matrizen als Eintr\"agen \[B(A)=
  \begin{pmatrix}
    a^1_1\eins-A&a^2_1\eins&\ldots&a^n_1\eins\\
    a^1_2\eins&a^2_2\eins-A&\ldots&a^n_2\eins\\
    \vdots&\vdots&\ddots&\vdots\\
    a^1_n\eins&a^2_n\eins&\ldots&a^n_n\eins-A
  \end{pmatrix}.
  \]
  Wir rechnen nun weiter mit Matrizen, deren Eintr\"age in $F[A]$
  liegen. Wir k\"onnen solch eine Matrix mit einer Matrix aus
  Spaltenvektoren multiplizieren
  \[
  B(A) 
  \begin{pmatrix}
    e_1\\\vdots\\e_n
  \end{pmatrix}
  =
  \begin{pmatrix}
    a^1_1e_1-Ae_1+a^2_1e_2+\ldots+a^n_1e_n\\
    a^1_2e_1+a^2_2e_2-Ae_2+\ldots+a^n_2e_n\\
    \quad\vdots\hfill\vdots\quad\\
    a^1_ne_1+a^2_ne_2+\ldots+a^n_ne_n-Ae_n
  \end{pmatrix}
  =
  \begin{pmatrix}
    0\\0\\\vdots\\0
  \end{pmatrix}.
  \]
  Setzen wir in die Gleichung \eqref{B adj eq} polynomialer
  Ausdr\"ucke $A$ statt $\eins$ (und $\lambda\cdot\eins$ statt eines
  K\"orperelementes $\lambda$) ein, so folgt
  \[B^{\text{adj}}(A)\cdot B(A)=
  \begin{pmatrix}
    \chi_A(A)&0&\ldots&0\\
    0&\chi_A(A)&\ldots&0\\
    \vdots&\vdots&\ddots&\vdots\\
    0&0&\ldots&\chi_A(A)
  \end{pmatrix}.\] 
  Wir multiplizieren wie oben von rechts mit einem Vektor aus
  Spaltenvektoren und erhalten
  \begin{align*}
    \begin{pmatrix}
      \chi_A(A)&0&\ldots&0\\
      0&\chi_A(A)&\ldots&0\\
      \vdots&\vdots&\ddots&\vdots\\
      0&0&\ldots&\chi_A(A)
    \end{pmatrix}
    \begin{pmatrix}
      e_1\\e_2\\\vdots\\e_n
    \end{pmatrix}
    =&\,B^{\text{adj}}(A)\cdot B(A)
    \begin{pmatrix}
      e_1\\e_2\\\vdots\\e_n
    \end{pmatrix}\\
    =&\,B^{\text{adj}}(A)
    \begin{pmatrix}
      0\\0\\\vdots\\0
    \end{pmatrix}
    =
    \begin{pmatrix}
      0\\0\\\vdots\\0
    \end{pmatrix}.
  \end{align*}
  Komponentenweise gelesen folgt $\chi_A(A)e_i=0$ f\"ur $1\le i\le
  n$. Somit ist $\chi_A(A)=0$. 
\end{proof}

\begin{remark}
  Mit etwas Algebra, kann man den Satz von Cayley-Hamilton wie folgt
  einfacher beweisen: Wir betrachten das Problem in einem K\"orper
  $K\supset F$, in dem $\chi_A(X)$ in Linearfaktoren zerf\"allt. Solch
  einen K\"orper gibt es f\"ur jedes Polynom (Algebravorlesung). Es
  gen\"ugt dann, die Aussage in diesem K\"orper zu zeigen. Wir nehmen
  also ohne Einschr\"ankung an, dass $\chi_A(X)$ in $F$ bereits in
  Linearfaktoren zerf\"allt. Dann k\"onnen wir (\cite{OSLA1})
  eine Basis finden, so dass $A$ trigonal wird. Nun ist der Satz eine
  einfache \"Ubungsaufgabe, insbesondere, wenn wir bereits Theorem
  \ref{haupt raum zerl thm} benutzen, das wir noch unabh\"angig
  hiervon zeigen werden.
\end{remark}

Nicht nur $I_A$ ist ein Ideal. Allgemein definiert man
\begin{definition}[Ideal]
  Sei $I$ eine Teilmenge eines kommutativen Ringes $R$ mit Eins. Dann
  hei\ss{}t $I$ Ideal von $R$, wenn
  \def\III{I}
  \begin{enumerate}[(\III1)]
  \item $a+b\in I$ f\"ur alle $a,b\in I$,
  \item $a\cdot r\in I$ f\"ur alle $a\in I$, $r\in R$. 
  \item $\mathfrak p\subset R$ hei\ss{}t Primideal, falls $\mathfrak
    p\neq R$ ist und falls aus $a\cdot b\in\mathfrak p$ folgt, dass
    $a\in\mathfrak p$ oder $b\in\mathfrak p$ gilt.
  \item $\mathfrak m\subset R$ hei\ss{}t maximales Ideal, wenn es
    keine gr\"o\ss{}eren nichttrivialen Ideale gibt, \dh wenn jedes
    Ideal $\mathfrak a$ mit $\mathfrak m\subsetneq\mathfrak a\subset
    R$ bereits $\mathfrak a=R$ erf\"ullt.
  \end{enumerate}
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $I_A\subset F[X]$, die Polynome $f$ mit $f(A)=0$.
  \item Sei $m\in\Z$. Dann bilden die durch $m$ teilbaren Zahlen ein
    Ideal, $(m)$. 
  \item Sei $p\in\N\setminus\{0\}$ prim. Dann ist $(p)$ ein Primideal
    in $\Z$.
  \end{enumerate}
\end{beispiele}

\begin{theorem}
  Sei $R$ ein kommutativer Ring mit Eins. Dann ist 
  \begin{enumerate}[(i)]
  \item das Ideal $\mathfrak p\subset R$ genau dann prim, wenn
    $R/\mathfrak p$ nullteilerfrei ist, \dh falls aus $a\cdot b=0$
    folgt, dass $a=0$ oder $b=0$ gilt.
  \item das Ideal $\mathfrak m\subset R$ genau dann maximal, wenn
    $R/\mathfrak m$ ein K\"orper ist.
  \item jedes maximale Ideal prim. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \"Ubung.
\end{proof}

\begin{definition}[Minimalpolynom]
  Sei $I\subset F[X]$ ein Ideal. Dann hei\ss{}t $\mu$ Minimalpolynom von
  $I$, falls
  \begin{enumerate}[(i)]
  \item $\mu$ normiert ist, \dh von der Form
    $\mu(X)=\sum\limits_{i=0}^na_iX^i$ mit $a_n=1$ und
  \item es f\"ur jedes $q\in I$ ein $p\in F[X]$ mit $q=p\cdot\mu$
    gibt.
  \end{enumerate}
  Das Minimalpolynom $\mu_A$ ist als das Minimalpolynom des Ideals
  $I_A$ definiert. 
\end{definition}

\begin{theorem}\label{min poly ex thm}
  Sei $I\subset F[X]$ ein Ideal mit $I\neq\{0\}$. Dann gibt es ein
  Minimalpolynom von $I$. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $0\neq\mu\in I$ ein Polynom minimalen Grades in $I$, ohne
  Einschr\"ankung normiert. Sei $p\in I$ beliebig. Mit Polynomdivision
  erhalten wir \[p(X)=q(X)\cdot\mu(X)+r(X)\] mit $\deg r<\deg\mu$. Aus
  dieser Gleichung folgt aber $r(X)\in I$. Da wir $\mu(X)$ mit
  minimalem Grad gew\"ahlt haben, muss $r(X)=0$ gelten. Die Behauptung
  folgt.
\end{proof}

\begin{beispiel}
  Sei 
  \[
  A=
  \begin{pmatrix}
    0&1&0&0&0\\
    0&0&1&0&0\\
    0&0&0&0&0\\
    0&0&0&0&0\\
    0&0&0&0&0\\
  \end{pmatrix}
  \]
  oder allgemeiner eine $n\times n$-Matrix mit $d$ Einsen wie
  angedeutet auf der Nebendiagonalen. Dann gilt $\chi_A(X)=(-1)^nX^n$
  f\"ur das charakteristische Polynom und $\mu_A(X)=X^{d+1}$ f\"ur das
  Minimalpolynom.
\end{beispiel}

\begin{theorem}
  Sei $f\colon V\to V$ ein Endomorphismus mit $\dim V=n$. Sei $\mu_f$ das
  Minimalpolynom von $f$. Dann gilt
  \begin{enumerate}[(i)]
  \item $\mu_f$ teilt $\chi_f$, \dh es gibt ein $r\in F[X]$ mit
    $\mu_f\cdot r=\chi_f$.
  \item $\chi_f$ teilt $\mu_f^n$. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Dies folgt aus der Definition des Minimalpolynoms, Theorem
    \ref{min poly ex thm} und dem Satz von Cayley-Hamilton: $\chi_A\in
    I_A$, wobei $A$ eine $f$ darstellende Matrix ist. 
  \item Wir wollen das Resultat der Algebra benutzen, dass es einen
    K\"orper gibt, in dem $\chi_f$ und $\mu_f$ in Linearfaktoren
    zerfallen und ohne Einschr\"ankung annehmen, dass dies \"uber $F$
    bereits der Fall ist. (Im Falle $F=\C$ wissen wir bereits, dass
    beide Polynome in Linearfaktoren zerfallen.) \par
    Sei $(X-\lambda)$ ein Linearfaktor von $\chi_f$ und $\xi$ ein
    zugeh\"origer Eigenvektor. Ist $\mu_A=(X-\mu_1)\cdots(X-\mu_k)$
    mit $\mu_i\neq\lambda$ f\"ur $1\le i\le k$, so gilt
    $(A-\mu_k\eins)\xi= (\lambda-\mu_k)\xi$ und somit per Induktion
    \[\mu_A(A)\xi=(\lambda-\mu_1)\cdots(\lambda-\mu_k)\xi\neq0.\]
    Widerspruch zur Definition des Minimalpolynoms. Somit kommt
    mindestens ein Faktor $(X-\lambda)$ in $\mu_A(X)$ vor, also teilt
    $(X-\lambda)^n$ das Polynom $(\mu_A(X))^n$. Da $\chi_A(X)$ aber
    h\"ochstens Grad $n$ hat, enth\"alt es auch den Linearfaktor
    $(X-\lambda)$ h\"ochstens $n$-fach. Somit teilt $\chi_A(X)$ das
    Polynom $(\mu_A(X))^n$. Die Behauptung folgt. \qedhere
  \end{enumerate}
\end{proof}

\begin{definition}
  Sei $f\colon V\to V$ ein Endomorphismus. Dann hei\ss{}t $f$
  nilpotent, falls es ein $k\ge1$ mit $f^k=0$ gibt. (Entsprechend
  definieren wir nilpotente $(n\times n)$-Matrizen.)
\end{definition}

\begin{theorem}\label{nil pot thm}
  Sei $f\colon V\to V$ ein Endomorphismus, $\dim V=n$. Dann sind die
  folgenden Aussagen \"aquivalent
  \begin{enumerate}[(i)]
  \item $f$ ist nilpotent.
  \item $f^d=0$ f\"ur ein $d$ mit $1\le d\le n$.
  \item $\chi_f(X)=\pm X^n$.
  \item Es gibt eine Basis, so dass $f$ durch eine obere
    Dreiecksmatrix mit Nullen auf der Diagonale dargestellt wird. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(a)]
  \item Sei $f$ nilpotent. Dann gilt $f^k=0$ f\"ur ein $k\in\N$. Also
    ist $X^k$ im Ideal $I_f$ der Polynome enthalten, die verschwinden,
    wenn man $f$ einsetzt. Da das Minimalpolynom $\mu_f(X)$ das
    Polynom $X^k$ teilt, folgt $\mu_f(X) =X^l$ f\"ur ein $l\in\N$. Der
    Grad des Minimalpolynomes ist $\le n$. Also ist $l\le n$,
    $\mu_f(f)=0$ und daher $f^l=0$ f\"ur ein $l\le n$.
  \item Gelte $f^d=0$ f\"ur ein $1\le d\le n$. Sei $d$ minimal mit
    dieser Eigenschaft. Dann ist $X^d$ das Minimalpolynom. Da das
    charakteristische Polynom das Polynom $\mu_f^n=X^{dn}$ teilt und
    den Grad $n$ besitzt, folgt $\chi_f(X)=\pm X^n$.
  \item Sei $\chi_f(X)=\pm X^n$. Dann zerf\"allt das charakteristische
    Polynom in Linearfaktoren, $f$ l\"asst sich also mit Hilfe eine
    trigonalisierbaren Matrix darstellen. Nur wenn diese
    ausschlie\ss{}lich die Diagonaleintr\"age $0$ besitzt, hat
    $\chi_f(X)$ die Gestalt $\pm X^n$. 
  \item Sei die zu $f$ geh\"orige Matrix wie angegeben. Wir wollen per
    Induktion zeigen, dass $f^k$ in dieser Basis durch eine obere
    Dreiecksmatrix dargestellt wird, bei der $(k-1)$ Nebendiagonalen
    ebenfalls nur Nullen enthalten: Sei $f^k$ durch
    $\left(b^i_j\right)$ dargestellt. Dann gilt $b^i_j=0$ f\"ur alle
    $(i,j)$ mit $j\le i+(k-1)$ und $a^i_j=0$ f\"ur alle $(i,j)$ mit
    $j\le i$. Wir erhalten f\"ur die Matrix $\left(c^i_j\right)$, die
    $f^{k+1}$ darstellt \[c^i_j =\sum\limits_{l=1}^n b^i_la^l_j.\]
    Aufgrund der Bedingung an $a^l_j$ gen\"ugt es, \"uber $l<j$ oder
    $l+1\le j$ zu summieren. Ebenso liefert die Bedingung an $b^i_l$,
    dass es gen\"ugt, \"uber $l>i+(k-1)$ oder $l\ge i+k$ zu
    summieren. $c^i_j\neq0$ ist also nur m\"oglich, wenn es ein $l$
    mit $j\ge l+1\ge i+k+1$ gibt. Dies ist \"aquivalent zu
    $j>i+k$. Also ist wie behauptet $c^i_j=0$ f\"ur $j\le
    i+k$. \qedhere
  \end{enumerate}
\end{proof}

\Subsection{Jordansche Normalform}
F\"ur Abbildungen oder Matrizen, deren charakteristisches Polynom zwar
in Linearfaktoren zerf\"allt, deren geometrische und algebraische
Vielfachheiten aber nicht \"ubereinstimmen, die also nicht
diagonalisierbar sind, gibt es eine Standarddarstellung, die
Jordansche Normalform.

Sei hier stets $f\colon V\to V$ ein Endomorphismus, $\dim V=n<\infty$, 
$\chi_f(X)=\pm(X-\lambda_1)^{r_1}\cdots(X-\lambda_k)^{r_k}$ mit
$\lambda_i\neq\lambda_j$ f\"ur $i\neq j$ und $\sum\limits_{l=1}^k
r_l=n$. Sei $f$ in einer festen Basis durch die Matrix $A$
dargestellt. Da das charakteristische Polynom in Linearfaktoren
zerf\"allt, l\"asst sich $f$ trigonalisieren, siehe \cite{OSLA1}. 

\begin{definition}
  Sei $f\colon V\to V$ ein Endomorphismus, $\dim V<\infty$. Sei
  $\lambda$ eine Nullstelle von $\chi_f(X)$ mit algebraischer
  Vielfachheit $r$. Dann ist der Hauptraum von $f$ zum Eigenwert
  $\lambda$ als \[\ker(f-\lambda\eins)^r\] definiert.
\end{definition}

\begin{theorem}\label{haupt raum zerl thm}
  Nach Basiswechsel hat $A$ die Gestalt
  \[
  A=
  \begin{pmatrix}
    A_1&0&\ldots&0\\
    0&A_2&\ldots&0\\
    \vdots&\vdots&\ddots&\vdots\\
    0&0&\hdots&A_k
  \end{pmatrix},
  \]
  wobei $A_i$ Bl\"ocke der Gr\"o\ss{}e $r_k\times r_k$
  sind. Weiterhin gilt 
  \[
  A_i=
  \begin{pmatrix}
    \lambda_i&*&\ldots&*\\
    0&\lambda_i&&*\\
    \vdots&&\ddots&\vdots\\
    0&0&\ldots&\lambda_i    
  \end{pmatrix},
  \]
  jedes $A_i$ ist also eine obere Dreiecksmatrix mit $\lambda_i$'s auf
  der Diagonalen. 
\end{theorem}
\begin{proof}[Beweis]
  Da $A$ nach Voraussetzung trigonalisierbar ist,
  d\"urfen wir ohne Ein\-schr\"an\-kung annehmen, dass $A$ bereits
  eine obere Dreiecksmatrix mit Diagonaleintr\"agen wie angegeben
  ist. \par
  \textbf{Die Hauptr\"aume zu $\lambda_i$ haben die Dimension $r_i$.}
  Wir schreiben $A$ in der Form
  \[
  A=
  \begin{pmatrix}
    B&*&*\\
    0&A_l&*\\
    0&0&D
  \end{pmatrix},
  \]
  wobei auf der Diagonalen quadratische Bl\"ocke stehen. Wir erhalten  
  \[
  A^2=
  \begin{pmatrix}
    B^2&*&*\\
    0&A_l^2&*\\
    0&0&D^2
  \end{pmatrix}
  \quad\text{und per Induktion}\quad
  A^m=
  \begin{pmatrix}
    B^m&*&*\\
    0&A_l^m&*\\
    0&0&D^m
  \end{pmatrix}.
  \]
  Wegen $(A_l-\lambda_l\eins)^{r_l}=0$, vergleiche Theorem \ref{nil
    pot thm}, liefert eine solche Rechnung f\"ur $A-\lambda_l\eins$,
  dass $(A-\lambda_l\eins)^{r_l}$ die Gestalt
  \[
  (A-\lambda_l\eins)^{r_l}=
  \begin{pmatrix}
    (B-\lambda_l\eins)^{r_l}&*&*\\
    0&0&*\\
    0&0&(D-\lambda_l\eins)^{r_l}
  \end{pmatrix}.
  \]
  hat. Man betrachtet insbesondere die vier Bl\"ocke links oben und
  sieht, dass die Dimension von $\ker(A-\lambda_l\eins)^{r_l}=r_l$
  ist. Definiere $V_i$ als den Hauptraum von $A$ zum Eigenwert
  $\lambda_i$. (Beachte auch, dass dieser Hauptraum in $\langle
  e_1,\ldots,e_{r_1+\ldots+r_l}\rangle$ enthalten ist.) Somit
  gilt \[\dim V_1+\ldots+\dim V_k =r_1+\ldots+r_k=n.\] \textbf{Direkte
    Summenzerlegung.}  Wir behaupten, dass
  sogar \[V_1\oplus\ldots\oplus V_k=V\] gilt. Wir beweisen per
  Induktion nach $l$: \[V_1\oplus\ldots\oplus V_l=\langle
  e_1,\ldots,e_{r_1+\ldots+r_l}\rangle,\] der zu den ersten $l$
  K\"astchen geh\"orige Vektorraum, wird also bereits von den ersten
  $l$ Hauptr\"aumen aufgespannt. F\"ur $l=1$ ist dies klar. Sei $0\neq
  v\in V_{l+1}$ beliebig. Es gen\"ugt zu zeigen, dass $v\not\in
  V_1\oplus\ldots\oplus V_l$ oder $(V_1\oplus\ldots\oplus V_l)\cap
  V_{l+1}=\{0\}$ gilt. Dann ist die Summe direkt und nach der
  Dimensionsformel f\"ur Unterr\"aume gilt
  $\dim(V_1+\ldots+V_{l+1})=r_1+\ldots+r_{l+1}$. Falls die Behauptung
  nicht richtig w\"are h\"atten wir in Blockgestalt
  \[
  0=(A-\lambda_{l+1})^{r_{l+1}}v\equiv
  \begin{pmatrix}
    (B-\lambda_{l+1}\eins)^{r_{l+1}}&*&*\\
    0&0&*\\
    0&0&(D-\lambda_{l+1}\eins)^{r_{l+1}}
  \end{pmatrix}
  \begin{pmatrix}
    v_1\\0\\0
  \end{pmatrix}.
  \]
  Wie man an der untersten nicht verschwindenden Komponente von $v_1$
  direkt abliest, kann dies nicht sein, da
  $(B-\lambda_{l+1}\eins)^{r_{l+1}}$ eine Trigonalmatrix mit
  nichtverschwindenden Diagonalelementen ist. Somit gilt
  \[V=V_1\oplus\ldots\oplus V_k.\] \textbf{Invarianz der
    Hauptr\"aume.}  Sei $g\colon V\to V$ ein beliebiger
  Endomorphismus. Dann folgt
  \[\ker g\subset\ker g^2\subset\ker g^3\subset \ldots\subset V\]
  und die Inklusion ist genau dann strikt, wenn sich die Dimensionen
  der R\"aume unterscheiden. F\"ur die Dimensionen gilt
  \[0\le\dim\ker g\le\dim\ker g^2\le\dim\ker g^3\le\ldots\le\dim
  V=n.\] Da es nur endlich viele m\"ogliche Dimensionen gibt, muss in
  beiden Ketten ab einem gewissen $\tilde l$ Gleichheit gelten. Man
  kann aber so etwas auch direkt an der Blockdarstellung ablesen:\par
  Betrachte $g=f-\lambda_l\eins$. An der Blockdarstellung von
  $(A-\lambda_l\eins)^{r_l}$ liest man ab, dass \[\ker
  (A-\lambda_l\eins)^{r_l}=\ker(A-\lambda_l\eins)^{r_l+1}=\ldots\]
  gilt. \par Sei $v\in V_i$. Wir behaupten, dass auch $Av\in V_i$
  gilt, dass $V_i$ also unter $f$ invariant ist. Nach Voraussetzung
  ist $0=(A-\lambda_i\eins)^{r_i}v$. Daher ist auch
  \[0=(A-\lambda_i\eins)^{r_i+1}v=(A-\lambda_i\eins)^{r_i}\cdot
  (A-\lambda_i\eins)v.\] Somit ist auch
  $(A-\lambda_i\eins)v=Av-\lambda_iv\in V_i$. Wegen $v\in V_i$ und da
  $V_i$ ein Vektorraum ist, erhalten wir $Av\in V_i$. W\"ahlen wir
  eine Basis, die aus Basen der Hauptr\"aume besteht, so dass die
  Einschr\"ankung auf jeden Hauptraum durch eine obere Dreiecksmatrix
  dargestellt ist, hat $A$ also die Blockgestalt wie behauptet.
\end{proof}

\begin{theorem}\label{jordan kaestchen thm}
  Sei $A\in F^{n\times n}$ von der Gestalt
  \[
  \begin{pmatrix}
    \lambda&*&\ldots&*\\
    0&\lambda&&*\\
    \vdots&&\ddots&\vdots\\
    0&0&\ldots&\lambda    
  \end{pmatrix}.
  \]
  Dann gibt es einen Basiswechsel, so dass $A$ die Gestalt 
  \[
    \begin{pmatrix}
    \lambda&\delta_1&0&0&\ldots&0&0\\
    0&\lambda&\delta_2&0&\ldots&0&0\\
    0&0&\lambda&\delta_3&\ddots&\vdots&\vdots\\
    \vdots&\vdots&\ddots&\ddots&\ddots&0&0\\
    0&0&\ldots&0&\lambda&\delta_{n-2}&0\\
    0&0&\ldots&0&0&\lambda&\delta_{n-1}\\
    0&0&\ldots&0&0&0&\lambda
  \end{pmatrix},
  \]
  hat, wobei $\delta_i\in\{0,1\}$, $1\le i\le n-1$, gilt. \par Ist
  $\delta_i=1$ f\"ur alle $i$, so hei\ss{}t $A$ Jordank\"astchen der
  Gr\"o\ss{}e $n$, $J_n=J_n(\lambda)$. 
\end{theorem}
\begin{proof}[Beweis]
  Nach Subtraktion von $\lambda\cdot\eins$ d\"urfen wir ohne
  Einschr\"ankung $\lambda=0$ annehmen. Dann ist $A$ nilpotent. Sei
  $k\in\N$ maximal mit $A^k\neq0$. W\"ahle ein Basis $\{r_l\}_{1\le
    l\le\dim\ker A^k}$ von $\ker A^k$ und erg\"anze sie mit $a_i$,
  $1\le i\le i_0(k)$, zu einer Basis von $V$. \par Wir behaupten, dass
  die Vektoren $\left\{a_i,Aa_i,\ldots,A^ka_i\right\}_{1\le i\le
    i_0(k)}$ linear unabh\"angig sind: Zun\"achst einmal sind die
  $\{A^la_i\}_i$ f\"ur festes $0\le l\le k$ linear unabh\"angig, denn
  aus $\sum\limits_i\lambda^iA^la_i=0$ folgt
  $\sum\limits_i\lambda^iA^ka_i=0$. Die $a_i$'s waren aber gerade so
  gew\"ahlt, dass sie eine Basis von $\ker A^k$ zu einer Basis von $V$
  erg\"anzen. Aus $\sum\limits_i\lambda^ia_i\in\ker A^k$ folgt also
  $\sum\limits_i\lambda^ia_i=0$ und daher $\lambda_i=0$ f\"ur alle
  $i$, da die $a_i$ die Basis eines Unterraumes bilden. \par
  Setze $W_k:=\langle a_i\rangle_i$. Sei $b_l\in A^lW_k$ und gelte
  $\sum\limits_{l=0}^k b_l=0$. W\"ahle $\alpha_l\in W_k$ mit
  $b_l=A^l\alpha_l$. Wir erhalten $\sum\limits_{l=0}^k
  A^l\alpha_l=0$. Auf diese Gleichung wenden wir nacheinander
  $A^k,A^{k-1},\ldots,A$ an und erhalten daraus nacheinander
  $A^k\alpha_0=0$, woraus $\alpha_0=0$ folgt, $A^k\alpha_1=0$, woraus
  $\alpha_1=0$ folgt, \ldots. Somit gilt $b_l=0$ f\"ur $0\le l\le k$
  und die gesamte Familie ist wie behauptet linear unabh\"angig. \par
  Wir wollen nun $A$ bez\"uglich der Basis
  \[A^ka_1,A^{k-1}a_1,\ldots,Aa_1,a_1, A^ka_2,\ldots,Aa_2,a_2, \ldots,
  a_{i_0(k)},r_1,\ldots,r_{n-(k+1)i_0(k)}\] darstellen (es ist zwar
  richtig, dass man die obigen Vektoren $r_i$ zur Basiserg\"anzung
  verwenden kann, jedoch geht es auch mit einer anderen Erg\"anzung)
  und erhalten in Blockgestalt
  \[
  \begin{pmatrix}
    J_{k+1}(0)&0&\ldots&0&*\\
    0&J_{k+1}(0)&&0&*\\
    \vdots&&\ddots&\vdots&*\\
    0&0&\ldots&J_{k+1}(0)&*\\
    0&0&\ldots&0&R\\
  \end{pmatrix}.
  \]
  Dabei sind die Anzahl der K\"astchen $J_k(0)$ und $k$ eindeutig
  durch die Wahl des maximalen $k$ und durch die Dimension des Raumes
  $\ker A^k$ bestimmt.\par
  Wir wollen nun die Basis so ab\"andern, dass die Sterne $*$ zu
  Nullen werden. Wir illustrieren das Vorgehen nur an einem Beispiel,
  im allgemeinen Fall muss man das Vorgehen hier lediglich auf jeden
  Block und jede Spalte \"uber $R$ anwenden. Im Beispiel betrachten
  wir $k=3$ und die Situation, dass $R$ nur ein $1\times 1$-Block ist.
  Sei also ohne Einschr\"ankung
  \[
  A=
  \begin{pmatrix}
    0&1&0&0&p_1\\
    0&0&1&0&p_2\\
    0&0&0&1&p_3\\
    0&0&0&0&p_4\\
    0&0&0&0&0
  \end{pmatrix}
  \]
  bez\"uglich der Basis $e_1,e_2,e_3,e_4,e_5$. Ersetze nun $e_5$ durch
  $v:=e_5-p_1e_2-p_2e_3-p_3e_4$. Es gilt $Av=\left(\begin{smallmatrix}
      -p_1+p_1\\ -p_2+p_2\\ -p_3+p_3\\ p_4\\ 0
    \end{smallmatrix}\right) =p_4e_4$.
  In dieser neuen Basis hat daher die Matrix die Gestalt
  \[
  B=
  \begin{pmatrix}
    0&1&0&0&0\\
    0&0&1&0&0\\
    0&0&0&1&0\\
    0&0&0&0&p_4\\
    0&0&0&0&0
  \end{pmatrix}.
  \]
  Es gilt $B^4e_5 =p_4B^3e_4 =p_4B^2e_3 =p_4Be_2 =p_4e_1$. Da aber das
  gr\"o\ss{}te Jordank\"astchen in der obigen Blockgestalt nach
  Voraussetzung die Gr\"o\ss{}e $4\times4$ hat, ist $B^4=0$. Somit ist
  $p_4=0$ und $B$ hat die gew\"unschte Gestalt. Der allgemeine Fall
  funktioniert analog mit Induktion und der Betrachtung von
  symmetrisch angeordneten Untermatrizen der Form \[
  \begin{matrix}
    \fbox{\rule{1.5cm}{0mm}\rule{0mm}{1.5cm}} &
    \fbox{\rule{0mm}{1.5cm}\phantom{x}}\\ &\\
    \fbox{\phantom{x\rule{1.3cm}{0mm}}}&
    \fbox{\phantom{x}},
  \end{matrix}\] wobei das
  K\"astchen unten rechts die Gr\"o\ss{}e $1\times1$ hat.
\end{proof}

Wir kombinieren diese beiden Resultate und erhalten
\begin{theorem}
  Sei $f\colon V\to V$ ein Endomorphismus zwischen
  endlichdimensionalen Vektorr\"aumen f\"ur den $\chi_f(X)$ in
  Linearfaktoren zerf\"allt. Dann gibt es eine Basis, so dass $f$ in
  dieser Basis durch eine Blockmatrix dargestellt wird, die auf der
  Diagonalen Jordank\"astchen und sonst Nullen hat. Eine Matrix in
  dieser Form hei\ss{}t in Jordanscher Normalform. \par Bis auf
  Permutation der Jordank\"astchen ist diese Matrix eindeutig
  bestimmt. 
\end{theorem}
\begin{proof}[Beweis]
  Die Existenzaussage folgt aus den Theoremen \ref{haupt raum zerl
    thm} und \ref{jordan kaestchen thm}. \par
  M\"ogliche Werte der Diagonaleintr\"age und deren H\"aufigkeit
  stimmen mit den Nullstellen des charakteristischen Polynoms und
  deren Vielfachheit \"uberein. Sei $j_k(\lambda)$ die Anzahl der
  Jordanbl\"ocke $J_k(\lambda)$ in der Matrix $A$ in Jordanscher
  Normalform. Es gilt 
  \[\dim\ker (J_k(\lambda)-\lambda\eins)^l=
  \begin{cases}
    l,&1\le l\le k,\\
    k,&l\ge k. 
  \end{cases}
  \]
  Sei $n=\dim V$. Es folgt f\"ur $l\ge1$
  \[\dim\ker(A-\lambda\eins)^l= 1\cdot j_1(\lambda) +2\cdot
  j_2(\lambda) +\ldots+l\cdot j_l(\lambda) +l\cdot j_{l+1}(\lambda)
  +l\cdot j_{l+2}(\lambda) +\ldots+ l\cdot j_n(\lambda).\] 
  Da
  \[
  \begin{pmatrix}
    1&1&1&\ldots&1\\
    1&2&2&\ldots&2\\
    1&2&3&\ldots&3\\
    \vdots&\vdots&\vdots&\ddots&\vdots\\
    1&2&3&\ldots&n
  \end{pmatrix}
  \]
  regul\"ar ist (subtrahiere Zeile $(n-1)$ von Zeile $n$, dann Zeile
  $(n-2)$ von Zeile $(n-1)$, \ldots und erhalte eine obere
  Dreiecksmatrix mit Einsen auf der Diagonalen), sind die Zahlen
  $j_i(\lambda)$ durch $\dim\ker(A-\lambda\eins)^l$, $1\le l\le n$,
  eindeutig bestimmt. Hieraus folgt die Eindeutigkeit bis auf
  Permutationen der Jordanbl\"ocke.
\end{proof}
\fi

\Section{Bilinearformen}
\Subsection{Bilinearformen, Quadratische Formen}
\begin{definition}[Bilinearform]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $V_1,\ldots,V_n,W$ Vektorr\"aume \"uber $F$. Eine
    Abbildung
    \[f\colon V_1\times\ldots\times V_n\to W\] hei\ss{}t multilinear,
    falls f\"ur jedes $i\in\{1,\ldots,n\}$ und festes
    \[(v_1,\ldots,v_{i-1},v_{i+1},\ldots,v_n)\in V_1\times\ldots\times
    V_{i-1}\times V_{i+1}\times\ldots\times V_n\] die
    Abbildung \[V_i\ni v_i\mapsto
    f(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n)\] linear ist.
  \item Sei $V$ ein $F$-Vektorraum. Eine multilineare Abbildung
    $\phi\colon V\times V\to F$ hei\ss{}t Bilinearform auf $V$. $\phi$
    hei\ss{}t symmetrisch, falls $\phi(a,b)=\phi(b,a)$ f\"ur alle
    $a,b\in V$ gilt.
  \end{enumerate}
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Reelle Skalarprodukte sind symmetrische Bilinearformen.
  \item $\phi\colon\R^2\times\R^2\to\R$ mit
    $\phi(\xi,\eta):=\xi^1\eta^1-\xi^2\eta^2$ ist eine symmetrische
    Bilinearform auf $\R^2$, aber kein Skalarprodukt. 
  \item Sei $V$ ein euklidischer Vektorraum und $f\in\End(V)$. Dann
    definiert $\phi(\xi,\eta):=\langle\xi,f(\eta)\rangle$ f\"ur
    $\xi,\eta\in V$ eine Bilinearform. Ist $f$ selbstadjungiert, so
    ist $\phi$ symmetrisch.
  \item Sei $A\in F^{n\times n}$. Dann ist $F^n\times
    F^n\ni(x,y)\mapsto x^TAy$ eine Bilinearform. 
  \item Sei $V=C^0([a,b])$ und $k\in C^0\left([a,b]^2\right)$. Dann
    ist $\phi\colon V\times V\to\R$, definiert
    durch \[\phi(f,g):=\int\limits_a^b\int\limits_a^b k(s,t)\cdot
    f(s)\cdot g(t)\,\,ds\,dt\] eine Bilinearform auf $V$. $\phi$ ist
    genau dann symmetrisch, wenn $k(s,t)=k(t,s)$ f\"ur alle $a\le
    s,t\le b$ gilt.
  \end{enumerate}
\end{beispiele}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $\phi,\psi\colon V_1\times\ldots\times V_n\to W$ zwei
    multilineare Abbildungen. Der Raum aller multilinearen Abbildungen
    ist ein Vektorraum, $L^n(V_1\times\ldots\times V_n,W)$, wobei wir
    \[(\phi+\psi)(v_1,\ldots,v_n):=\phi(v_1,\ldots,v_n)
    +\psi(v_1,\ldots,v_n)\] und \[(\alpha\cdot\phi) (v_1,\ldots,v_n):=
    \alpha\cdot \phi(v_1,\ldots,v_n)\] setzen.
  \item Sei $(a_1,\ldots,a_n)$ eine Basis von $V$. Sei $\phi$ eine
    Bilinearform auf $V$. Dann folgt
    f\"ur \[\xi=\sum\limits_{i=1}^n\xi^ia_i \quad \text{und} \quad
    \eta=\sum\limits_{j=1}^n\eta^ja_j\] wie bei linearen Abbildungen
    \[\phi(\xi,\eta) =\sum\limits_{i,j=1}^n \xi^i\eta^j\phi(a_i,a_j).\] 
    Daher ist $\phi$ durch $(c_{ij})_{1\le i,j\le n}$ mit
    $c_{ij}:=\phi(a_i,a_j)$ eindeutig bestimmt.
  \item Umgekehrt definiert eine Matrix $(c_{ij})$ unter Verwendung
    der obigen Formel mit $c_{ij}$ statt $\phi(a_i,a_j)$ eine
    eindeutig bestimmte Bilinearform. 
  \item Wie bei linearen Abbildungen ist die Zuordnung $\phi\mapsto
    (c_{ij})$ bei fixierter Basis $(a_1,\ldots,a_n)$ ein
    Vektorraumisomorphismus zwischen dem Vektorraum der Bilinearformen
    auf $V$ und den $(n\times n)$-Matrizen \"uber $F$. Insbesondere
    hat der Vektorraum der Bilinearformen auf einem $n$-dimensionalen
    Vektorraum $V$ die Dimension $n^2$. 
  \item Eine Bilinearform $\phi$ ist genau dann symmetrisch, wenn die
    zugeh\"orige Matrix symmetrisch ist. 
  \end{enumerate}
\end{remark}

\begin{remark}[Transformationsverhalten bilinearer Abbildungen]
  \neueZeilealt Seien $(a_1,\ldots,a_n)$ und $(b_1,\ldots,b_n)$ Basen
  eines Vektorraumes $V$. Sei $\phi$ eine Bilinearform auf $V$. Sei
  $A=(\alpha_{ij})$ die zu $\phi$ bez\"uglich der Basis aus den
  $a_i$'s geh\"orige Matrix und $B=(\beta_{ij})$ die zu den
  $b_i$'s. Gelte \[b_k=\sum\limits_{i=1}^n d^i_ka_i\] f\"ur $1\le k\le
  n$. Setze $D:=(d^i_j)$. Dann folgt
  \[\beta_{kl}=\phi(b_k,b_l) =\phi\left(\sum\limits_{i=1}^n
    d^i_ka_i,\sum\limits_{j=1}^n d^j_la_j\right)
  =\sum\limits_{i,j=1}^n d^i_kd^j_l\phi(a_i,a_j)
  =\sum\limits_{i,j=1}^n d^i_kd^j_l\alpha_{ij}.\]
  In Matrixform gilt also $B=D^TAD$. Dies ist dasselbe
  Transformationsverhalten wie beim reellen Skalarprodukt. 
\end{remark}

\begin{definition}[Quadratische Form]
  Sei $\phi\colon V\times V\to F$ eine Bilinearform. Dann hei\ss{}t
  $Q\colon V\to F$, definiert durch \[Q(v):=\phi(v,v)\quad \text{f\"ur
  }v\in V,\] die zu $\phi$ zugeh\"orige quadratische Form.
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $\phi$ die zur Matrix $\left(\begin{smallmatrix} 0&1\\
        -1&0 \end{smallmatrix}\right)$ geh\"orige Bilinearform. Dann
    gilt f\"ur die zugeh\"orige quadratische Form $Q$ die Identit\"at
    $Q(v)=0$ f\"ur beliebige $v\in V$.
  \item Sei $\phi=\langle\cdot,\cdot\rangle$ ein reelles
    Skalarprodukt. Dann gilt $Q=\Vert\cdot\Vert^2$ f\"ur die
    zugeh\"orige quadratische Form $Q$.
  \end{enumerate}
\end{beispiele}
 
\begin{theorem}\label{quad bilin zshg thm}
  Sei $F$ ein K\"orper mit Charakteristik $\charak F\neq2$. 
  Sei $Q\colon V\to F$ die zur Bilinearform $\phi\colon V\times
  V\to F$ geh\"orige quadratische Form. Definiere $\psi\colon V\times
  V\to F$ durch \[\psi(\xi,\eta) :=\tfrac12(Q(\xi+\eta)
  -Q(\xi)-Q(\eta))\quad \text{f\"ur alle }\xi,\eta\in V.\]
  \begin{enumerate}[(i)]
  \item Es gilt \[\psi(\xi,\eta) =\tfrac12(\phi(\xi,\eta)
    +\phi(\eta,\xi)).\] 
  \item $\psi$ ist eine weitere Bilinearform, zu der die quadratische
    Form $Q$ geh\"ort. 
  \item Ist $\phi$ symmetrisch, so gilt $\phi=\psi$. 
  \item Ist $\phi$ bez\"uglich einer Basis die Matrix $(a_{ij})$
    zugeordnet, so ist $\psi$ bez\"uglich dieser Basis die Matrix
    $D=(d_{ij}) =\left(\frac12(a_{ij}+a_{ji})\right)_{1\le i,j\le n}$
    zugeordnet.
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  Wir zeigen nur die ersten beiden Teile. 
  \begin{enumerate}[(i)]
  \item Es gilt
    \begin{align*}
      Q(\xi+\eta) =&\,\phi(\xi+\eta,\xi+\eta) =\phi(\xi,\xi)
      +\phi(\xi,\eta) +\phi(\eta,\xi) +\phi(\eta,\eta)\\ =&\,Q(\xi)
      +\phi(\xi,\eta) +\phi(\eta,\xi) +Q(\eta).
    \end{align*}
    Wir erhalten daraus \[\psi(\xi,\eta) =\tfrac12(\phi(\xi,\eta)
    +\phi(\eta,\xi)).\]
  \item Dies folgt aus \[\psi(\xi,\xi) =\tfrac12(\phi(\xi,\xi)
    +\phi(\xi,\xi)) =\phi(\xi,\xi) =Q(\xi).\qedhere\]
  \end{enumerate}
\end{proof}

\begin{corollary}
  In einem reellen Skalarproduktraum $V$ gilt die Polarisationsformel
  \[\langle x,y\rangle =\tfrac12\left(\Vert x+y\Vert^2 -\Vert x\Vert^2
    -\Vert y\Vert^2\right)\quad\text{f\"ur alle }x,y\in V.\]
\end{corollary}

Wir wollen noch Bilinearformen \"uber beliebigen K\"orpern durch
Basiswechsel diagonalisieren. Dazu benutzen wir 
\cite{OMearaQuadraticForms}.
\begin{definition}
  Sei $V$ ein endlichdimensionaler $F$-Vektorraum und $B\colon V\times
  V\to F$ eine symmetrische Bilinearform. Dann hei\ss{}t
  $(a_1,\ldots,a_n)$ eine orthogonale Basis von $V$ bez\"uglich $B$,
  falls $(a_1,\ldots,a_n)$ eine Basis von $V$ ist
  und \[B(a_i,a_j)=0\quad\text{f\"ur alle }1\le i<j\le n\] gilt.
\end{definition}

\begin{theorem}
  Sei $F$ ein K\"orper mit $\charak F\neq2$.  Sei $V$ ein
  endlichdimensionaler $F$-Vektorraum und $B\colon V\times V\to F$
  eine symmetrische Bilinearform. Dann besitzt $V$ eine orthogonale
  Basis bez\"uglich $B$.
\end{theorem}
\begin{proof}[Beweis]
  Gilt $B\equiv0$ oder $\dim V=1$, so ist die Behauptung klar. Sonst
  finden wir ein $x\in V$ mit $B(x,x)\neq0$. (Ist $B$ bez\"uglich
  eines Basis $(b_1,\ldots,b_n)$ die symmetrische Matrix
  $A=(a_{ij})_{1\le i,j\le n}$ zugeordnet, so k\"onnen wir $x=b_i$
  w\"ahlen, falls $a_{ii}\neq0$ gilt. Gilt $a_{ij}=a_{ji}\neq0$ f\"ur
  feste $i,j$ mit $i\neq j$ und $a_{kk}=0$ f\"ur alle $1\le k\le n$,
  so w\"ahlen wir $x=b_i+b_j$.)  Wir erg\"anzen $x\neq0$ zu einer
  Basis $(x,x_2,\ldots,x_n)$ von $V$. Definiere $\tilde
  x_i:=x_i-\frac{B(x,x_i)}{B(x,x)}x$ f\"ur $2\le i\le n$. Dann gilt
  \[B(x,\tilde x_i)=B(x,x_i)-\frac{B(x,x_i)}{B(x,x)}B(x,x)=0\] f\"ur
  alle $2\le i\le n$. Nach Konstruktion ist $(x,\tilde
  x_2,\ldots,\tilde x_n)$ ebenfalls eine Basis von $V$.\par
  Die Behauptung folgt nun per Induktion nach der Dimension: F\"ur den
  Vektorraum $W:=\langle\tilde x_2,\ldots,\tilde x_n\rangle$ finden
  wir nach Induktionsannahme eine bez\"uglich $B|_{W\times W}$
  orthogonale Basis. Zusammen mit $x$ erhalten wir die gesuchte
  orthogonale Basis von $V$.
\end{proof}

\Subsection{Bilinearformen in euklidischen Vektorr\"aumen}
Beliebige Bilinearformen lassen sich mit Hilfe des Skalarproduktes und
mit linearen Abbildungen wie folgt darstellen:
\begin{theorem}
  Sei $\phi$ eine Bilinearform auf einem endlichdimensionalen reellen
  Vektorraum $V$. Sei $\langle\cdot,\cdot\rangle$ ein Skalarprodukt
  auf $V$, so gibt es eindeutig bestimmte lineare Abbildungen
  $f,g\colon V\to V$ mit \[\phi(\xi,\eta)=\langle\xi,f(\eta)\rangle
  =\langle g(\xi),\eta\rangle\] f\"ur alle $\xi,\eta\in V$. Die
  Abbildung $f$ (und damit auch $g$) ist genau dann selbstadjungiert,
  wenn $\phi$ symmetrisch ist.
\end{theorem}
\begin{proof}[Beweis]
  Sei $\{a_1,\ldots,a_n\}$ eine Orthonormalbasis von
  $V$. Definiere \[c_{ik}:=\phi(a_i,a_k)\quad\text{f\"ur }1\le i,k\le
  n.\] Definiere die linearen Abbildungen $f,g\colon V\to V$ durch
  \begin{align*}
    f(a_k):=&\,\sum\limits_{j=1}^n c_{jk}a_j =\sum\limits_{j,l=1}^n
    c_{lk}\delta^{lj}a_j,\quad 1\le k\le n,\\ 
    g(a_i):=&\,\sum\limits_{j=1}^n c_{ij}a_j =\sum\limits_{j,l=1}^n
    c_{il}\delta^{lj}a_j,\quad 1\le i\le n. 
  \end{align*}
  Dann folgt, da die Vektoren $a_i$ eine Orthonormalbasis bilden,
  \begin{align*}
    \langle a_i,f(a_k)\rangle =&\,\left\langle a_i,\sum\limits_{j=1}^n
      c_{jk}a_j\right\rangle =\sum\limits_{j=1}^n c_{jk}\delta_{ij}
    =c_{ik} =\phi(a_i,a_k),\\
    \langle g(a_i),a_k\rangle =&\,\left\langle \sum\limits_{j=1}^n
      c_{ij}a_j,a_k\right\rangle =\sum\limits_{j=1}^n
    c_{ij}\delta_{jk} =c_{ik} =\phi(a_i,a_k).
  \end{align*}
  Da beide Seiten in beiden Gleichungen bilinear sind, erhalten
  wir \[\phi(\xi,\eta) =\langle\xi,f(\eta)\rangle =\langle
  g(\xi),\eta\rangle\] f\"ur alle $\xi,\eta\in V$. \par Die Abbildung
  $f$ ist eindeutig bestimmt; sei n\"amlich $\tilde f$ eine weitere
  solche Abbildung, so erhalten wir $\phi(\xi,\eta)
  =\langle\xi,f(\eta)\rangle =\left\langle\xi,\tilde
    f(\eta)\right\rangle$ f\"ur alle $\xi,\eta\in V$. Weiterhin folgt
  $0=\left\langle \xi, f(\eta)-\tilde f(\eta)\right\rangle$ f\"ur alle
  $\xi,\eta\in V$ und damit $f(\eta)-\tilde f(\eta)=0$ f\"ur alle
  $\eta\in V$. Also gilt $f=\tilde f$. Ebenso folgt die Eindeutigkeit
  f\"ur $g$. \par Sei $\phi$ symmetrisch. Dann erhalten wir f\"ur
  $\xi,\eta\in V$ \[\langle\xi,f(\eta)\rangle =\phi(\xi,\eta)
  =\phi(\eta,\xi) =\langle\eta,f(\xi)\rangle =\langle
  f(\xi),\eta\rangle.\] Somit ist $f$ selbstadjungiert. Sei umgekehrt
  $f$ selbstadjungiert. Es folgt \[\phi(\xi,\eta)
  =\langle\xi,f(\eta)\rangle =\langle f(\xi),\eta\rangle
  =\langle\eta,f(\xi)\rangle =\phi(\eta,\xi).\] Somit ist $\phi$
  symmetrisch.
\end{proof}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Den obigen Satz kann man umformulieren, indem man statt eines
    Skalarproduktes eine Orthogonalbasis vorgibt.
  \item $f$ und $g$ h\"angen vom Skalarprodukt ab. Die Eigenschaft,
    selbstadjungiert zu sein oder nicht, ist jedoch davon
    unabh\"angig, da sie \"aquivalent zur Symmetrie von $\phi$ ist und
    um die Symmetrie von $\phi$ zu \"uberpr\"ufen, ben\"otigt man kein
    Skalarprodukt.
  \item Die $f$ und die die Bilinearform bez\"uglich einer festen
    Orthonormalbasis darstellenden Matrizen stimmen \"uberein. Zu $g$
    geh\"ort die dazu transponierte Matrix.
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $\phi\colon V\times V\to F$ eine symmetrische Bilinearform. Dann
  definieren wir den Nullraum von $\phi$ durch \[N(\phi):=\{\xi\in
  V\colon \phi(\xi,\eta)=0\quad\text{f\"ur alle }\eta\in V\}.\] Eine
  symmetrische Bilinearform hei\ss{}t ausgeartet, falls
  $N(\phi)\neq\{0\}$ gilt.
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $N(\phi)$ ist ein Unterraum von $V$. 
  \item Da $\phi$ symmetrisch ist, gilt auch \[N(\phi)=\{\xi\in
    V\colon \phi(\eta,\xi)=0\quad\text{f\"ur alle }\eta\in V\}.\]
  \item Eine symmetrische Bilinearform $\phi$ ist genau dann nicht
    ausgeartet, wenn es zu jedem $v\in V$ mit $v\neq0$ ein $w\in V$
    mit $\phi(v,w)\neq0$ gibt. (Kleine \"Ubung)
  \end{enumerate}
\end{remark}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Fassen wir ein Skalarprodukt als Bilinearform auf, so gilt
    $N=\{0\}$. 
  \item Sei die bilineare Abbildung $\phi\colon \R^2\times \R^2\to\R$
    bez\"uglich der Standardbasis durch die Matrix 
    \[
    \begin{pmatrix}
      1&-1\\ -1&1
    \end{pmatrix}
    \]
    gegeben. Dann gilt $N(\phi)=\left\langle\left(
    \begin{smallmatrix}
      1\\1
    \end{smallmatrix}
    \right)\right\rangle$.
  \end{enumerate}
\end{beispiele}

\begin{theorem}
  Sei $\phi\colon V\times V\to\R$ eine symmetrische Bilinearform auf
  einem euklidischen Vektorraum $V$. Gilt
  $\phi(\xi,\eta)=\langle\xi,f(\eta)\rangle$ f\"ur alle $\xi,\eta\in
  V$, so folgt auch $N=N(\phi)=\ker f$. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $0=\phi(\xi,\eta)$ f\"ur alle $\eta\in V$. Dann folgt
  $0=\phi(\xi,\eta)=\phi(\eta,\xi) =\langle\eta,f(\xi)\rangle$ auch
  $f(\xi)=0$. Die umgekehrte Inklusion funktioniert analog. 
\end{proof}

Der Kern einer einer symmetrischen Bilinearform zugeordneten linearen
Abbildung $f$ ist daher im Gegensatz zur Abbildung $f$ selbst vom
verwendeten Skalarprodukt unabh\"angig. Daher ist die folgende
Definition gerechtfertigt
\begin{definition}
  Sei $\phi$ eine symmetrische Bilinearform. Dann definieren wir den
  Rang von $\phi$, $\rang\phi$ als den Rang einer zugeh\"origen
  linearen Abbildung $f$ (bez\"uglich eines beliebigen
  Skalarproduktes). Wir nennen $\phi$ regul\"ar (bzw.{} singul\"ar),
  wenn $f$ regul\"ar (bzw.{} singul\"ar) ist.
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Es gilt $\rang\phi=\dim V-\dim N(\phi)$.
  \item Ist $\phi$ durch $C$ dargestellt, so gilt $\rang\phi=\rang
    C$. 
  \end{enumerate}
\end{remark}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Die zu einem Skalarprodukt geh\"orige Bilinearform ist
    regul\"ar. 
  \item Bez\"uglich der Standardbasis des $\R^3$ definiert die Matrix 
    \[C=
    \begin{pmatrix}
      10 & 4 & 8\\
      4 & -8 & -4\\
      8 & -4 & 1
    \end{pmatrix}
    \]
    eine Bilinearform $\phi$. Es gilt $\rang C=2=\rang\phi$ sowie
    \[N(\phi)=\left\langle
      \left(
      \begin{smallmatrix}
        2\\ 3\\ -4
      \end{smallmatrix}
      \right)
    \right\rangle.\] 
  \end{enumerate}
\end{beispiele}

\Subsection{Hauptachsentransformation}
\neueZeilealt
Sei $V$ ein euklidischer Raum. Das Gram-Schmidtsche
Orthogonalisierungsverfahren liefert eine Orthogonalbasis von
$V$. Bez\"uglich dieser Basis ist das Skalarprodukt durch die
Einheitsmatrix dargestellt. \par
Ziel dieses Abschnittes ist es zu zeigen, dass es zu jeder
symmetrischen Bilinearform auf $V$ eine Basis von $V$ gibt, so dass
die Bilinearform durch eine Diagonalmatrix dargestellt wird. Wir
k\"onnen sogar eine Orthogonalbasis w\"ahlen. 
\begin{theorem}\label{symm bilin diag thm}
  Sei $\phi\colon V\times V\to\R$ eine symmetrische Bilinearform auf
  einem endlichdimensionalen euklidischen Vektorraum $V$. Sei $\dim
  V=n$. Dann existiert eine Orthonormalbasis $\{b_1,\ldots,b_n\}$ von
  $V$, bez\"uglich der $\phi$ durch eine Diagonalmatrix dargestellt
  wird. Die Diagonalelemente sind gerade die Eigenwerte $\lambda_i$
  der Matrix von $\phi$ (als Endomorphismus betrachtet) bez\"uglich
  einer beliebigen Orthonormalbasis von $V$.
\end{theorem}
\begin{proof}[Beweis]
  Wir benutzen die lineare Abbildung $f\colon V\to V$, so dass
  $\phi(\xi,\eta)=\langle\xi,f(\eta)\rangle$ f\"ur alle $\xi,\eta\in
  V$ gilt. Da $\phi$ symmetrisch ist, ist $f$ selbstadjungiert. Somit
  gibt es eine Orthonormalbasis $\{b_1,\ldots,b_n\}$ von $V$ aus
  Eigenvektoren von $f$ zu Eigenwerten $(\lambda_i)_i$. Es
  gilt \[\phi(b_i,b_j) =\langle b_i,f(b_j)\rangle =\langle
  b_i,\lambda_jb_j\rangle =\lambda_j\delta_{ij}.\] Somit ist $\phi$
  bez\"uglich dieser Basis durch eine Diagonalmatrix $C$ dargestellt und
  die Diagonaleintr\"age sind die Eigenwerte von $f$. \par Bez\"uglich
  einer weiteren Orthogonalbasis ist $\phi$ durch $C'=E^TCE$
  dargestellt, wobei $E$ eine Basiswechselmatrix ist. Da beide Basen
  Orthonormalbasen sind, ist $E$ orthogonal und es gilt
  $E^T=E^{-1}$. Wegen $C'=E^{-1}CE$ sind $C$ und $C'$ \"ahnlich und
  besitzen daher die gleichen Eigenwerte.
\end{proof}

\begin{beispiel}
  Betrachte die symmetrische Bilinearform $\phi$ auf $\R^3$, die
  bez\"uglich der Standardbasis durch die Matrix
  \[C=
  \begin{pmatrix}
    4 & -5 & -2\\
    -5 & 4 & -2\\
    -2 & -2 & -8
  \end{pmatrix}
  \]
  gegeben ist. Sei $f\colon\R^3\to\R^3$ die durch $C$ bez\"uglich der
  Standardbasis dargestellte lineare Abbildung. Die Eigenwerte von $f$
  sind die Nullstellen des zugeh\"origen charakteristischen Polynoms
  (etwas Rechenarbeit)
  \[\chi_f(X)=\chi_C(X)=-(X+9)(X-9)X.\]
  Bez\"uglich einer Orthonormalbasis $\{b_1,b_2,b_3\}$ aus
  Eigenvektoren ist $f$ also durch
  \[
  C'=
  \begin{pmatrix}
    9&0&0\\ 
    0&-9&0\\
    0&0&0
  \end{pmatrix}
  \]
  dargestellt. Orthonormale Eigenvektoren sind
  \[
  b_1=\frac1{\sqrt 2}
  \begin{pmatrix}
    1\\ -1\\0
  \end{pmatrix},
  \quad
  b_2=\frac1{3\sqrt2}
  \begin{pmatrix}
    1\\ 1\\ 4
  \end{pmatrix}
  \quad\text{und}\quad
  b_3=\frac13
  \begin{pmatrix}
    2\\ 2\\ -1
  \end{pmatrix}.
  \]
  In diesem Fall hat die Gleichung $C'=E^TCE$ die Gestalt
  \[
  \begin{pmatrix}
    9&0&0\\ 
    0&-9&0\\
    0&0&0
  \end{pmatrix}
  =
  \begin{pmatrix}
    \frac1{\sqrt2} & -\frac1{\sqrt2} & 0\\
    \frac1{3\sqrt2} & \frac1{3\sqrt2} & \frac4{3\sqrt2}\\
    \frac23 & \frac23 & -\frac13
  \end{pmatrix}
  \begin{pmatrix}
    4 & -5 & -2\\
    -5 & 4 & -2\\
    -2 & -2 & -8
  \end{pmatrix}
  \begin{pmatrix}
    \frac1{\sqrt2} & \frac1{3\sqrt2} & \frac23\\
    -\frac1{\sqrt2} & \frac1{3\sqrt2} & \frac23\\
    0 & \frac4{3\sqrt2} & -\frac13
  \end{pmatrix}.
  \]
\end{beispiel}

\begin{lemma}
  Sei $\phi\colon V\times V$ eine symmetrische Bilinearform auf einem
  endlichdimensionalen euklidischen Vektorraum. Dann gibt es eine
  Basis, so dass die darstellende Matrix die folgende Diagonalgestalt
  hat:
  \[
  \begin{pmatrix}
    1&&&&&&&&\\
    &\ddots&&&&&&&\\
    &&1&&&&&&\\
    &&&-1&&&&&\\
    &&&&\ddots&&&&\\
    &&&&&-1&&&\\
    &&&&&&0&&\\
    &&&&&&&\ddots&\\
    &&&&&&&&0
  \end{pmatrix}
  \]
\end{lemma}
\begin{proof}[Beweis]
  Benutze zun\"achst eine Basis $\{b_1,\ldots,b_n\}$ wie in Theorem
  \ref{symm bilin diag thm}. Nummeriere die Eigenwerte ohne
  Einschr\"ankung so, dass $\lambda_1,\ldots,\lambda_s$ positiv,
  $\lambda_{s+1},\ldots,\lambda_t$ negativ und
  $\lambda_{t+1},\ldots,\lambda_n$ Null sind. Definiere die Vektoren
  \begin{align*}
    a_i:=&\,\frac1{\sqrt{\lambda_i}}b_i,&&1\le i\le s,\\
    a_i:=&\,\frac1{\sqrt{-\lambda_i}}b_i,&&s+1\le i\le t,\\
    a_i:=&\,b_i,&&t+1\le i\le n.
  \end{align*}
  Die Menge $\{a_1,\ldots,a_n\}$ besteht aus paarweise zueinander
  orthogonalen Vektoren, von denen keiner der Nullvektor ist. Somit
  handelt es sich um eine Basis von $V$. Bez\"uglich dieser Basis hat
  $\phi$ aufgrund des Transformationsverhaltens von Bilinearformen
  darstellenden Matrizen die gew\"unschte Darstellung. 
\end{proof}

Die Zahlen $s$ und $t$ h\"angen nicht von der speziellen Basiswahl
ab. 
\begin{theorem}[Sylvesterscher Tr\"agheitssatz]
  Sei $Q$ eine quadratische Form in einem reellen endlich
  dimensionalen Vektorraum $V$. Dann gibt es eine Basis
  $\{a_1,\ldots,a_n\}$ von $V$, so dass $Q$ in dieser Basis
  durch \[Q(\xi) =\sum\limits_{i=1}^s\left(\xi^i\right)^2
  -\sum\limits_{i=s+1}^t\left(\xi^i\right)^2\] mit
  $\xi=\sum\limits_{i=1}^n\xi^ia_i$ gegeben ist. $s$ und $t$ h\"angen
  dabei nur von $Q$ ab.
\end{theorem}
\begin{proof}[Beweis]
  Die Existenz einer solchen Darstellung haben wir gerade in
  Skalarproduktr\"aumen gezeigt. Wir k\"onnen hier ein beliebiges
  Skalarprodukt auf $V$ benutzen um das letzte Resultat anzuwenden. Es
  bleibt also, die letzte Aussage zu zeigen. Der Nullraum einer
  Bilinearform ist von der Basis unabh\"angig. Somit h\"angt $t=\dim
  V-\dim N$ nur von $Q$ und nicht von der Basis ab. \par Sei
  $\alpha_1,\ldots,\alpha_n$ eine weitere Basis von $V$ zu der es
  $\sigma$ mit \[Q(\eta)
  =\sum\limits_{i=1}^\sigma\left(\eta^i\right)^2
  -\sum\limits_{i=\sigma+1}^t\left(\eta^i\right)^2\] f\"ur
  $\eta=\sum\limits_{i=1}^n\eta^i\alpha_i$ gibt. Wir behaupten, dass
  $s=\sigma$ gilt. Setze
  \begin{align*}
    U:=&\,\langle a_{s+1},\ldots,a_t\rangle,\\
    W:=&\,\langle \alpha_1,\ldots,\alpha_\sigma,
    \alpha_{t+1},\ldots,\alpha_n\rangle.
  \end{align*}
  Es gilt 
  \begin{align*}
    Q(\xi)<&\,0&&\text{f\"ur }\xi\in U\setminus\{0\},\\
    Q(\eta)\ge&\,0&&\text{f\"ur }\eta\in W.
  \end{align*}
  Somit ist $U\cap W=\{0\}$. Wir erhalten
  \[n\ge\dim(U+W) =\dim U+\dim W =(t-s) +n-(t-\sigma) =n-s+\sigma.\]
  Es folgt $s\ge\sigma$. Analog folgt $s\le\sigma$. Daraus erh\"alt
  man die Behauptung. 
\end{proof}

\begin{definition}
  In der Notation des Sylvesterschen Tr\"agheitssatzes nennen wir eine
  quadratische Form $Q$ bzw.{} die (nach Theorem \ref{quad bilin zshg
    thm}) zugeh\"orige symmetrische Bilinearform $\phi$ mit
  $Q(\xi)=\phi(\xi,\xi)$
  \begin{enumerate}[(i)]
  \item positiv definit, wenn $s=t=n$ gilt. Alternativ definiert man
    $Q$ als positiv definit, wenn $Q(\xi)>0$ f\"ur alle $\xi\in V$ mit
    $\xi\neq0$ gilt.
  \item negativ definit, wenn $s=0$ und $t=n$ gelten. Alternativ: Wenn
    $-Q$ positiv definit ist.
  \item positiv semidefinit, wenn $s=t$ gilt. Alternativ: Wenn
    $Q(\xi)\ge0$ f\"ur alle $\xi\in V$ gilt. 
  \item negativ semidefinit, wenn $s=0$ gilt. Alternativ: Wenn $-Q$
    positiv semidefinit ist. 
  \item indefinit, wenn $0<s<t$ gilt. Alternativ, wenn es $\xi,\eta\in
    V$ mit $Q(\xi)<0<Q(\eta)$ gibt. 
  \end{enumerate}
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Eine symmetrische Bilinearform $\phi$ ist genau dann ein
    Skalarprodukt, wenn $\phi$ positiv definit ist.
  \item Betrachte die symmetrische Bilinearform auf $\R^4$ mit
    zugeh\"origer quadratischer Form \[Q(\xi)=2\xi^1\xi^2 +2\xi^1\xi^3
    +2\xi^1\xi^4 +2\xi^2\xi^3 +2\xi^2\xi^4 +2\xi^3\xi^4.\]
    Die zugeh\"orige Matrix ist
    \[
    \begin{pmatrix}
      0&1&1&1\\
      1&0&1&1\\
      1&1&0&1\\
      1&1&1&0
    \end{pmatrix}.
    \]
    Das zugeh\"orige charakteristische Polynom lautet (eine Seite
    Rechnung) \[\chi(X)=X^4-6X^2-8X-3=(X+1)^3(X-3).\] Somit ist die
    Matrix der Bilinearform bez\"uglich einer wie im Sylvesterschen
    Tr\"agheitssatz geeignet normierten Basis durch 
    \[
    \begin{pmatrix}
      1&0&0&0\\
      0&-1&0&0\\
      0&0&-1&0\\
      0&0&0&-1
    \end{pmatrix}
    \]
    gegeben. $Q$ ist also indefinit. 
  \end{enumerate}
\end{beispiele}

\begin{theorem}
  Seien $Q_1$ und $Q_2$ zwei quadratische Formen auf einem reellen
  Vektorraum $V$. Sei $Q_1$ positiv definit. Dann gibt es eine Basis
  $a_1,\ldots,a_n$ von $V$ und $c_1,\ldots,c_n\in\R$, so dass
  \[Q_1(\xi) =\sum\limits_{i=1}^n\left(\xi^i\right)^2,\quad \text{und}
  \quad Q_2(\xi) =\sum\limits_{i=1}^nc_i\left(\xi^i\right)^2\] f\"ur
  $\xi=\sum\limits_{i=1}^n\xi^ia_i$ gilt. 
\end{theorem}
\begin{proof}[Beweis]
  Die zu $Q_1$ geh\"orige symmetrische Bilinearform ist positiv
  definit und daher ein Skalarprodukt auf $V$. Nach Theorem \ref{symm
    bilin diag thm} gibt es daher eine bez\"uglich dieses
  Skalarproduktes orthonormale Basis $\{a_1,\ldots,a_n\}$, in der die
  symmetrische Bilinearform zu $Q_2$ durch eine Diagonalmatrix
  dargestellt wird.
\end{proof}

\Subsection{Extremaleigenschaften der Eigenwerte}
Verm\"oge \[\phi(\xi,\xi)=\langle\xi,f(\xi)\rangle\] \"ubertragen sich
die folgenden Ergebnisse auch auf symmetrische Bilinearformen. 

Wir setzen $\S^{n-1}:=\{x\in\R^n\colon \Vert x\Vert=1\}$ bez\"uglich
der vom Standardskalarprodukt auf $\R^n$ induzierten Norm.

F\"ur das folgende Theorem ben\"otigen wir einen kleinen Hilfssatz:
\begin{lemma}\label{quadr sum hilfs lem}
  Sei $A\in\R^{n\times n}$ symmetrisch mit Eigenwerten
  $\lambda_1\le\ldots\le\lambda_n\in\R$. Sei $U$ ein $k$-dimensionaler
  Unterraum von $\R^n$. Wir verwenden das Standardskalarprodukt auf
  $\R^n$. Dann gibt es ein $x\in U$ mit $\langle x,x\rangle =\Vert
  x\Vert^2=1$ und $\langle x,Ax\rangle\ge\lambda_k$.
\end{lemma}
\begin{proof}[Beweis]
  W\"ahle eine Orthonormalbasis $\{a_i\}_{1\le i\le n}$ aus
  Eigenvektoren von $A$ mit $Aa_i=\lambda_ia_i$. Setze $W:=\langle
  a_k,\ldots,a_n\rangle$. Aus Dimensionsgr\"unden ist $U\cap
  W\neq\{0\}$. Sei $x\in U\cap W$ mit $\Vert x\Vert=1$. Aus $x\in W$
  mit $x=\sum\limits_{i=k}^nx^ia_i$ folgt \[\langle
  Ax,x\rangle=\Bigg\langle\sum\limits_{i=k}^nx^i
  \underbrace{Aa_i}_{=\lambda_ia_i},
  \sum\limits_{j=k}^nx^ja_j\Bigg\rangle
  =\sum\limits_{i=k}^n\left(x^i\right)^2
  \underbrace{\lambda_i}_{\ge\lambda_k}\ge \lambda_k\cdot
  \sum\limits_{i=k}^n\left(x^i\right)^2= \lambda_k.\] Somit ergibt
  sich die Behauptung.
\end{proof}

\begin{theorem}\label{lambda k extr thm}
  Sei $f$ ein selbstadjungierter Endomorphismus auf $\R^n$. Sei
  $\mathcal U_k$ die Menge aller $k$-dimensionalen Unterr\"aume von
  $\R^n$. Dann gilt f\"ur die nach Gr\"o\ss{}e geordneten und
  entsprechend ihrer Vielfachheit aufgef\"uhrten Eigenwerte
  $\lambda_1\le\ldots\le\lambda_n$
  \[\lambda_k=\inf\limits_{U\in\mathcal U_k} \sup\limits_{x\in\S^{n-1}\cap
    U} \langle x,f(x)\rangle.\]
\end{theorem}
\begin{proof}[Beweis]
  Das Supremum wird stets angenommen, da $\S^{n-1}\cap U$ kompakt (=
  beschr\"ankt und abgeschlossen) ist und da $x\mapsto\langle
  x,f(x)\rangle$ stetig ist. \par Sei $\{a_i\}_{1\le i\le n}$ eine
  Orthogonalbasis von $\R^n$ mit $f(a_i)=\lambda_ia_i$. Setze
  $U_1:=\langle a_1,\ldots,a_k\rangle$. Dann gilt f\"ur
  $x=\sum\limits_{i=1}^k x^ia_i\in U_1$ mit $\Vert x\Vert=1$, also
  $x\in\S^{n-1}$
  \begin{align*}
    \langle x,f(x)\rangle =&\,\sum\limits_{i,j=1}^k x^ix^j \langle
    a_i,f(a_j)\rangle =\sum\limits_{i,j=1}^k x^ix^j
    \lambda_j\underbrace{\langle a_i,a_j\rangle}_{=\delta_{ij}}
    =\sum\limits_{i=1}^k \left(x^i\right)^2 \lambda_i\\
    \le&\,\lambda_k\sum\limits_{i=1}^k\left(x^i\right)^2
    =\lambda_k\Vert x\Vert^2=\lambda_k.
  \end{align*}
  Insbesondere folgt also 
  \[\langle a_k,f(a_k)\rangle =\lambda_k =\sup\limits_{x\in\S^{n-1}\cap
    U_1} \langle x,f(x)\rangle.\] Lemma \ref{quadr sum hilfs lem}
  zeigt, dass \[\inf\limits_{U\in\mathcal U_k}
  \sup\limits_{x\in\S^{n-1}\cap U} \langle x,f(x)\rangle \ge
  \lambda_k=\sup\limits_{x\in\S^{n-1}\cap U_1}\langle x,f(x)\rangle\]
  gilt. Somit folgt Gleichheit in der obigen Ungleichung und damit die
  Behauptung.
\end{proof}

\begin{remark}
  Sei $U$ ein Unterraum von $\R^n$. Sei $f$ ein symmetrischer
  Endomorphismus von $\R^n$ mit Standardskalarprodukt. Dann
  gilt \[\sup\limits_{x\in\S^{n-1}\cap U} \langle x,f(x)\rangle
  =\sup\limits_{\genfrac{}{}{0pt}{}{x\in U}{x\neq0}} \frac{\langle
    x,f(x)\rangle}{\Vert x\Vert^2}.\] Dieser letzte Quotient hei\ss{}t
  Rayleigh-Quotient. Wir h\"atten das obige Theorem auch mit Hilfe des
  Rayleigh-Quotienten formulieren k\"onnen.
\end{remark}

Wir wollen noch eine weitere M\"oglichkeit kennen lernen, Eigenwerte
als Extrema wiederzufinden. Das folgende Theorem kann auch aus Theorem
\ref{lambda k extr thm} gefolgert werden. Wir geben trotzdem einen
unabh\"angigen Beweis. 
\begin{theorem}
  Sei $f\colon\R^n\to\R^n$ bez\"uglich des Standardskalarproduktes
  selbstadjungiert. Seien $\lambda_1\le\ldots\le\lambda_n$ die
  Eigenwerte von $f$.  Dann
  gilt \[\lambda_n=\sup\limits_{x\in\S^{n-1}}\langle x,f(x)\rangle
  =\sup\limits_{\genfrac{}{}{0pt}{}{x\in\R^n}{x\neq0}}\frac{\langle
    x,f(x)\rangle}{\Vert x\Vert^2}.\]
\end{theorem}
\begin{proof}[Beweis]
  Wir zeigen nur die erste Gleichheit. Die zweite Gleichheit folgt
  aus Homogenit\"atsgr\"unden. \par
  Aufgrund der Kompaktheit von $\S^{n-1}$ wird das Supremum in einem
  Punkt $x_0\in\S^{n-1}$ angenommen. Sei $\epsilon>0$ und
  $\gamma\colon(-\epsilon,\epsilon)\to\S^{n-1}$ eine $C^1$-Kurve mit
  $\gamma(0)=x_0$. Dann nimmt die Funktion
  $t\mapsto\langle\gamma(t),f(\gamma(t))\rangle$ in $t=0$ ein Maximum
  an. Somit gilt $0=\langle\gamma'(0),f(x_0)\rangle +\langle
  x_0,f(\gamma'(0))\rangle$. Sei $x_1\in\S^{n-1}$ mit $\langle
  x_0,x_1\rangle=0$. Dann ist $\gamma(t):=\cos t\cdot x_0+\sin t\cdot
  x_1$ eine Kurve in $\S^{n-1}$ wie oben betrachtet mit
  $\gamma'(0)=x_1$.  Da $f$ selbstadjungiert ist erhalten wir
  \[0=\langle x_1,f(x_0)\rangle +\langle x_0,f(x_1)\rangle =2\langle
  x_1,f(x_0)\rangle.\] Somit ist $f(x_0)$ ein Vielfaches von $x_0$ und
  daher ist $x_0$ ein Eigenvektor. Da f\"ur jeden Eigenvektor
  $y\in\S^{n-1}$ von $f$ zum Eigenwert $\lambda$ \[\lambda=\langle
  y,f(y)\rangle\] gilt, liefert die obige Formel auch den
  gr\"o\ss{}ten Eigenwert und das Maximum wird an einem zugeh\"origen
  Eigenvektor angenommen.
\end{proof}

Auch diese Methode l\"a\ss{}t sich auf die anderen Eigenwerte
verallgemeinern. 
\begin{theorem}
  Sei $f\colon\R^n\to\R^n$ bez\"uglich des Standardskalarproduktes
  selbstadjungiert. Seien $\lambda_1\le\ldots\le\lambda_n$ die
  Eigenwerte von $f$. Seien $a_{k+1},\ldots,a_n$ Eigenvektoren zu den
  Eigenwerten $\lambda_{k+1},\ldots,\lambda_n$. Setze $U:=\langle
  a_{k+1},\ldots,a_n\rangle$. Dann
  gilt \[\lambda_k=\sup\limits_{x\in\S^{n-1}\cap U^\perp}\langle
  x,f(x)\rangle =\sup\limits_{\genfrac{}{}{0pt}{}{x\in
      U^\perp}{x\neq0}}\frac{\langle x,f(x)\rangle} {\Vert
    x\Vert^2}.\]
\end{theorem}
\begin{proof}[Beweis]
  Werde das Supremum in $a_k\in \S^{n-1}\cap U^\perp$ angenommen. Sei
  $b\in U^\perp$ mit $\langle b,a_k\rangle=0$ und $\Vert b\Vert=1$
  beliebig. Betrachte eine Kurve wie oben, hier $\R\ni t\mapsto \cos
  t\cdot a_k+\sin t\cdot b$. Wiederum folgt $0=\langle
  b,f(a_k)\rangle$ f\"ur alle Vektoren $b$ wie angegeben. Sei $v\in U$
  ein beliebiger Eigenvektor zum Eigenwert $\lambda$. Dann gilt
  $\langle v,f(a_k)\rangle =\langle f(v),a_k\rangle =\lambda\langle
  v,a_k\rangle =0$. Zusammengenommen folgt $\langle w,f(a_k)\rangle=0$
  f\"ur alle $w\in\S^{n-1} \cap\langle a_k\rangle^\perp$. Daher ist
  $a_k$ ein Eigenvektor von $f$. Nach Konstruktion kann $a_k$ nicht im
  Erzeugnis der Eigenvektoren $a_{k+1},\ldots,a_n$ liegen. F\"ur jeden
  Eigenvektor $x\in\S^{n-1}$ liefert $\langle x,f(x)\rangle$ gerade
  den zugeh\"origen Eigenwert. Somit folgt die obige Formel.
\end{proof}

\begin{theorem}
  Sei $a>0$.  Sei $(-a,a)\ni t\mapsto A(t)\in R^{n\times n}$ stetig
  und sei $A(t)$ f\"ur alle $t\in(-a,a)$ symmetrisch. (Dabei
  identifizieren wir $\R^{n\times n}$ mit $\R^{n\cdot n}$ und
  verwenden auf $\R^{n\cdot n}$ eine beliebige Norm.) Seien
  $\lambda_i(t)$, $1\le i\le n$, $t\in(-a,a)$ die angeordneten
  Eigenwerte von $A(t)$ mit Vielfachheit, gelte also
  $\lambda_1(t)\le\lambda_2(t) \le\ldots\le\lambda_n(t)$ f\"ur alle
  $t\in(-a,a)$.  Dann h\"angen die Eigenwerte $\lambda_i(t)$ f\"ur
  festes $i\in\{1,\ldots,n\}$ stetig von $t$ ab.
\end{theorem}
\begin{proof}[Beweis]
  Wir wollen Theorem \ref{lambda k extr thm} benutzen. Seien
  $t_0\in(-a,a)$ und $\epsilon>0$ beliebig. Gelte $A(t)
  =\left(a^i_j(t)\right)_{1\le i,j\le n}$. Dann gibt es $\delta>0$, so
  dass $(t_0-\delta,t_0+\delta)\subset (-a,a)$ und $\left|a^i_j(t)
    -a^i_j(t_0)\right| \le\frac\epsilon{n^2}$ f\"ur alle $1\le i,j\le
  n$ und $t\in(t_0-\delta,t_0+\delta)$ (da $t\mapsto A(t)$ stetig ist)
  gelten. Sei $x\in\S^{n-1}$ beliebig. Wegen $1=\langle x,x\rangle
  =\sum\limits_{i=1}^n \left(x^i\right)^2$ gilt $\left|x^i\right|\le
  1$ f\"ur alle $i\in\{1,\ldots,n\}$. Wir erhalten also
  \begin{align*}
    |\langle x,A(t)x\rangle -\langle x,A(t_0)x\rangle| =&\,|\langle
    x,(A(t)-A(t_0))x\rangle|\umbruch\\
    =&\,\left|\sum\limits_{i,j,k=1}^n
      x^i\delta_{ij}\left(a^j_k(t)-a^j_k(t_0)\right) x^k
    \right|\umbruch\\ \le &\, n^2\underbrace{\left(\sup\limits_{1\le
          i\le n}\left|x^i\right|\right)^2}_{\le 1}\frac\epsilon{n^2}
    \le\epsilon.
  \end{align*}
  Es folgt nach Theorem \ref{lambda k extr
    thm} (wobei $\mathcal U_k$ wieder die Menge aller
  $k$-dimensionalen Unterr\"aume von $\R^n$ bezeichnet) 
  \begin{align*}
    \lambda_k(t)=&\,\inf\limits_{U\in\mathcal U_k} \sup\limits_{x\in
      \S^{n-1}\cap U} \langle x,A(t)x\rangle\umbruch\\
    \le&\,\inf\limits_{U\in\mathcal U_k} \sup\limits_{x\in
      \S^{n-1}\cap U} \langle x,A(t_0)x\rangle+\epsilon\umbruch\\
    =&\,\lambda_k(t_0)+\epsilon.
  \end{align*}
  Analog folgt die umgekehrte Ungleichung und daher die Stetigkeit. 
\end{proof}

Das folgende Theorem gilt auch f\"ur hermitesche Matrizen, siehe
\cite[Theorem 7.2.5]{HornJohnsonMatrixAnalysis}. F\"ur positiv
semidefinite Matrizen gilt es nicht mit \glqq$\ge0$\grqq. Wir
schreiben $\mathbb K$ statt $\R$ oder $\C$. 
\begin{theorem}
  Sei $A=\left(a^i_j\right)_{1\le i,j\le n}\in\mathbb K^{n\times n}$
  hermitesch. Dann sind die folgenden beiden Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{pos def i} $A$ ist positiv definit,
  \item\label{pos def ii} alle Unterdeterminanten
    $\det\left(a^i_j\right)_{1\le i,j\le k}\equiv\det A_k$,
    $k=1,\ldots,n$, erf\"ullen $\det A_k>0$ (und sind im hermiteschen
    Fall reell).
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeilealt \glqq\eqref{pos def i} \impliziert \eqref{pos def
    ii}\grqq: Sei $A$ positiv definit. Betrachte
  $A_k=\left(a^i_k\right)_{1\le i,j\le k}$ f\"ur ein $k$ mit $1\le
  k\le n$. Dann ist auch $A_k$ positiv definit. $A_k$ ist
  diagonalisierbar und hat positive Eigenwerte. Somit ist auch das
  Produkt dieser Eigenwerte, $\det A_k$, positiv. \par
  \glqq\eqref{pos def ii} \impliziert \eqref{pos def i}\grqq: Per
  Induktion. Sei die Aussage bereits f\"ur $(n-1)\times(n-1)$-Matrizen
  gezeigt, $A_{n-1}$ also positiv definit. Nach Theorem \ref{lambda k
    extr thm}, mit Infimum und Supremum vertauscht um die
  gr\"o\ss{}eren Eigenwerte zuerst zu bekommen, besitzt $A$ mindestens
  $(n-1)$ positive Eigenwerte, da wir schon f\"ur die spezielle Wahl
  $U=\langle e_1,\ldots, e_{k}\rangle$ mit $1\le k\le n-1$ auch $k$
  positive Werte erhalten die dann untere Schranken f\"ur die
  Eigenwerte von $A$ sind.  Das Produkt der Eigenwerte ist aber
  ebenfalls positiv. Somit sind alle Eigenwerte positiv.
\end{proof}

\Subsection{Fl\"achen im $\R^3$}
Wir geben nur die wichtigste Definition an.
\begin{definition}
  Sei $\phi\colon\R^3\times\R^3\to\R$ symmetrisch und nicht
  ausgeartet. Seien $\lambda_1\le \lambda_2\le\lambda_3$ die
  Eigenwerte der zugeh\"origen selbstadjungierten linearen
  Abbildung. Dann hei\ss{}t die Menge \[\left\{x\in\R^3\colon
    \phi(x,x)=1\right\}\]
  \begin{enumerate}[(i)]
  \item Ellipsoid, falls $\lambda_i>0$ f\"ur $i=1,2,3$ gilt. Die Werte
    $\frac1{\sqrt{\lambda_i}}$ hei\ss{}en Halbachsen. Ein Ellipsoid
    hei\ss{}t genau dann Rotationsellipsoid, wenn
    $\lambda_1=\lambda_2$ oder $\lambda_2=\lambda_3$ gilt. Ein
    Ellipsoid hei\ss{}t Sph\"are, falls
    $\lambda_1=\lambda_2=\lambda_3$ gilt. 
  \item einschaliges Hyperboloid, falls
    $\lambda_1<0<\lambda_2\le\lambda_3$ gilt. Es ist genau dann um den
    Eigenraum zu $\lambda_1$ rotationssymmetrisch, falls
    $\lambda_2=\lambda_3$ gilt.
  \item zweischaliges Hyperboloid, falls
    $\lambda_1\le\lambda_2<0<\lambda_3$ gilt. Es ist genau dann um den
    Eigenraum zu $\lambda_3$ rotationssymmetrisch, falls
    $\lambda_1=\lambda_2$ gilt.
  \end{enumerate}
\end{definition}

\Section{Ringe}
\Subsection{Ringe}

\begin{definition}[Ring]
  Ein Ring $A$ ist eine additive abelsche Gruppe, \dh wir schreiben
  die Verkn\"upfung als \glqq$+$\grqq{}, mit einer Multiplikation
  \glqq$\cdot$\grqq{}, so dass folgende Axiome f\"ur alle $a,b,c\in A$
  gelten
  \begin{enumerate}[(R1)]
  \item\label{R1} $a\cdot (b\cdot c)=(a\cdot b)\cdot c$ \hfill
    (Assoziativit\"at)
  \item\label{R2} $a\cdot (b+c)=a\cdot b+a\cdot c$ \hfill
    (Distributivit\"at)
  \item\label{R3} $(a+b)\cdot c=a\cdot c+b\cdot c$ \hfill
    (Distributivit\"at)
  \end{enumerate}
  Hierbei verwenden wir eine Klammersetzung nach der Regel \glqq Punkt
  vor Strich\grqq. Wir schreiben sp\"ater $ab$ statt $a\cdot b$. 
  \begin{enumerate}[(R1)]
    \addtocounter{enumi}{3}
  \item Ein Ring mit Einselement, also einem Element $1=1_A\in A$, das
    $a\cdot 1=a=1\cdot a$ f\"ur alle $a\in A$ erf\"ullt, hei\ss{}t
    Ring mit $1$. H\"aufig wird die Existenz eines Einselementes
    bereits in der Definition eines Ringes verlangt.
  \item Ein Ring hei\ss{}t kommutativ, falls $a\cdot b=b\cdot a$ f\"ur
    alle $a,b\in A$ gilt.
  \end{enumerate}
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $\Z$ ist ein kommutativer Ring mit Eins.
  \item Die geraden Zahlen sind ein Ring ohne Eins.
  \item Ein K\"orper $K$ ist ein kommutativer Ring mit Eins.
  \item $K^{n\times n}$ ist ein Ring. F\"ur $n\ge2$ ist er nicht
    kommutativ.
  \end{enumerate}
\end{beispiele}

\begin{definition}[Ringhomomorphismus]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $A,\,B$ Ringe. Dann hei\ss{}t eine Abbildung $\phi\colon
    A\to B$ Ringhomomorphismus, wenn $\phi(a+b)=\phi(a)+\phi(b)$ und
    $\phi(a\cdot b)=\phi(a)\cdot\phi(b)$ f\"ur alle $a,b\in A$
    gelten. Bei Ringen mit Eins verlangt man zus\"atzlich $\phi(1)=1$
    (dies folgt nicht; betrachte die Nullabbildung).
  \item Der Deutlichkeit halber k\"onnte man auch
    $\phi(a+_Ab)=\phi(a)+_B\phi(b)$ oder $\phi(1_A)=1_B$
    schreiben.
  \item Ist $\phi$ bijektiv, so hei\ss{}t $\phi$ Ringisomorphismus
    oder Isomorphismus. Dann ist $\phi^{-1}$ ebenfalls ein
    Ringisomorphismus (\"Ubung).
  \item $A$ und $B$ hei\ss{}en isomorph, falls es einen
    Ringisomorphismus $\phi\colon A\to B$ gibt.
  \end{enumerate}
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $\phi\colon A\to B$ und $\psi\colon B\to C$
    Ringhomomorphismen. Dann ist auch die Verkn\"upfung
    $\psi\circ\phi\colon A\to C$ ein Ringhomomorphismus.
  \item Sei $A$ ein Ring, $B\subset A$ eine Teilmenge, die unter
    Addition und Multiplikation abgeschlossen ist. Dann ist die
    Inklusionsabbildung $B\to A$ ein Ringhomomorphismus. 
  \item Sei $A$ ein Ring mit Eins. Dann ist $\phi\colon\Z\to A$ mit
    $0\mapsto 0$, $n\mapsto \underbrace{1+\ldots+1}_{n\text{
        St\"uck}}$ sowie $-n\mapsto -\phi(n)$ f\"ur $n>0$ ein
    Ringhomomorphismus.\par F\"ur einen Ring $A$ mit Eins gibt es
    genau einen Ringhomomorphismus $\phi\colon\Z\to A$. Wir schreiben
    dementsprechend in diesem Falle auch $n=\sum\limits_{i=1}^n1$ und
    $na$ f\"ur $n\in\N$ und $a\in A$.
  \item Sei $K[t]$ der Polynomring \"uber einem K\"orper. Dann ist
    $\phi_a\colon K[t]\to K$ mit $\phi_a(f):=f(a)$ f\"ur $f\in K[t]$
    ein Ringhomomorphismus. Es gilt \[\ker\phi_a=\{(t-a)h\colon h\in
    K[t]\}.\] Beweis: Polynomdivision. 
  \item Seien $A_1,\ldots,A_n$ Ringe. Dann ist
    $A:=A_1\times\ldots\times A_n$ mit komponentenweise definierter
    Addition und Multiplikation ein Ring. Sind alle Ringe
    $A_1,\ldots,A_n$ kommutativ bzw.{} Ringe mit Eins, so ist auch $A$
    kommutativ bzw.{} ein Ring mit Eins $(1,\ldots,1)$. Die
    Projektionsabbildungen \[\pi_i\colon A\to A_i \quad\text{mit}\quad
    \pi_i(a_1,\ldots,a_n)=a_i\] f\"ur $i=1,\ldots,n$ sind
    Ringhomomorphismen.
  \end{enumerate}
\end{remark}

\begin{remark}[Konvention]
  Seien ab jetzt alle Ringe kommutativ mit Eins. 
\end{remark}

Wir wiederholen:
\begin{definition}
  Sei $A$ ein kommutativer Ring mit Eins.  Eine Teilmenge $I\subset A$
  hei\ss{}t Ideal von $A$, falls $I$ eine Untergruppe von $A$ ist und
  f\"ur alle $a\in I$ und $b\in A$ auch $ab\in I$ gilt. \par
  Wir sagen auch, dass $I\subset A$ ein Ideal sei. 
\end{definition}

\begin{remark}
  Ein Ideal $I\subset A$ in einem Ring (mit Eins) ist nur dann ein
  Teilring (mit Eins), falls $I=A$ gilt. \par
  Die Angaben in Klammern hier und sp\"ater sind als Erinnerungen zu
  verstehen. Ohne sie wird das jeweilige Resultat m\"oglicherweise
  falsch. 
\end{remark}

\begin{lemma}
  Sei $A$ ein (kommutativer) Ring und $I\subset A$ ein Ideal. Dann
  ist \[A/I:=\{a+I\colon a\in A\}\] mit $\bar a\equiv a+I:=\{a+b\colon
  b\in I\}$ mit vertreterweise definierter Addition und Multiplikation
  ein Ring, der Quotientenring von $A$ nach $I$. \par
  Die Projektionsabbildung $\pi\colon A\to A/I$ mit $a\mapsto a+I$ ist
  ein (surjektiver) Ringhomomorphismus.
\end{lemma}
\begin{proof}[Beweis]
  Wir zeigen nur die Wohldefiniertheit von Addition und
  Multiplikation. Seien $a,b\in A$ und $c,d\in I$. Dann
  gilt \[(a+c)+(b+d) =(a+b)+\underbrace{(c+d)}_{\in I}\] sowie
  \[(a+c)\cdot(b+d) =ab+\underbrace{ad+cb+cd}_{\in I}.\] Wir bemerken,
  dass die Mengen $a+I$ f\"ur $a\in A$ die \"Aquivalenzklassen von $A$
  unter der \"Aquivalenzrelation $b\equiv c$ (mod $I$) sind, wobei
  $b\equiv c$ (mod $I$) genau dann gilt, wenn $b-c\in I$ ist.
\end{proof}

\begin{theorem}
  Sei $A$ ein kommutativer Ring mit Eins. Dann ist $I\subset A$ genau
  dann ein Ideal, wenn es einen kommutativen Ring $B$ mit Eins und
  einen Ringhomomorphismus $\phi\colon A\to B$ mit $\ker\phi=I$ gibt. 
\end{theorem}
\begin{proof}[Beweis]
  \neueZeilealt \Rueckrichtung Seien $a\in\ker\phi$ und $b\in A$. Dann
  ist $\phi(ab)=\phi(a)\cdot\phi(b)=0\cdot\phi(b)=0$. Somit ist
  $ab\in\ker\phi$. \par
  \Hinrichtung Betrachte die Projektion $\pi\colon A\to A/I$. Dann
  gelten nach Definition $I\subset\ker\pi$ sowie $a+I\neq0$ f\"ur
  $a\not\in I$.
\end{proof}

\begin{theorem}[Homomorphiesatz f\"ur Ringe]
  Sei $\phi\colon A\to B$ ein Ringhomomorphismus. Sei $I\subset A$ ein
  Ideal. Sei $\pi\colon A\to A/I$ die Quotientenabbildung. Sei
  $i\colon\im\phi\to B$ die Inklusionsabbildung. Dann gibt
  es genau dann einen Ringhomomorphismus $\bar\phi\colon
  A/I\to\im\phi\subset B$ mit $\phi=i\circ\bar\phi\circ\pi$, wenn
  $I\subset\ker\phi$ gilt. Existiert $\bar\phi$, so ist diese
  Abbildung eindeutig bestimmt und es gelten $\ker\bar\phi
  =(\ker\phi)/I$ sowie $i(\im\bar\phi)=\im\phi$. Das folgende Diagramm
  kommutiert
  \[\xymatrix{A\ar[rrr]^-\phi\ar[dr]_-\pi&&&B.\\
  &A/I\ar[r]_-{\bar\phi}&\im\phi\ar[ur]_-i&}\]
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $I\not\subset\ker\phi$. Sei $a\in
    I\setminus\ker\phi$. Nehme an, es g\"abe eine solche Abbildung
    $\bar\phi$. Dann folgte $0\neq\phi(a)=i\circ\bar\phi\circ\pi(a)
    =i\circ\bar\phi(0)=0$. Widerspruch.
  \item Definiere $\bar\phi\colon A/I\to\im\phi$ durch
    $a+I\mapsto\phi(a)$. Wegen $I\subset\ker\phi$ ist $\bar\phi$
    wohldefiniert. Da $\phi$ ein Ringhomomorphismus ist, gilt dies
    auch f\"ur $\bar\phi$. 
  \item Die Kommutativit\"at des Diagrammes bzw.{}
    $\phi=i\circ\bar\phi\circ\pi$ ist nach Definition klar.
  \item Da $\bar\phi$ wohldefiniert ist, folgt
    $\ker\bar\phi=(\ker\phi)/I$. $i(\im\bar\phi)=\im\phi$ ist nach
    Definition klar.
  \item Sei $\tilde\phi\colon A/I\to\im\phi$ eine weitere solche
    Abbildung.  Da $\pi$ surjektiv ist, folgt aus
    $i\circ\bar\phi\circ\pi=i\circ\tilde\phi\circ\pi$ die Gleichheit
    $i\circ\bar\phi=i\circ\tilde\phi$.  Da schlie\ss{}lich $i$
    injektiv ist, folgt aus $i\circ\bar\phi=i\circ\tilde\phi$ bereits
    $\bar\phi=\tilde\phi$. Somit ist $\bar\phi$ eindeutig bestimmt.
    \qedhere
  \end{enumerate}
\end{proof}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $n\in\N\equiv\{0,1,2,\ldots\}$. Dann ist $n\Z$ ein Ideal
    von $\Z$. Wir erhalten als Quotienten- oder Restklassenring
    $\Z/n\Z=\left\{\bar 0,\bar 1,\ldots,\ol{n-1}\right\}$. Wir werden
    sehen, dass es keine weiteren Ideale in $\Z$ gibt (Division mit
    Rest).
  \item Ist $K$ ein K\"orper den wir als Ring auf"|fassen, so sind
    $\{0\}$ und $K$ Ideale von $K$.\par Wir werden noch sehen, dass
    ein Ring, in dem es nur diese beiden trivialen Ideale gibt, stets
    ein K\"orper ist (Faktorisiere ein maximales Ideal heraus).
  \item Sei $K$ ein K\"orper und $A=K[t]$. Sei $p\in K[t]$. Dann ist
    $(p):=\{p\cdot q\colon q\in K[t]\}$ ein Ideal in $K[t]$. Wir
    werden sehen, dass es keine weiteren Ideale in $K[t]$ gibt
    (Division mit Rest).
  \end{enumerate}
\end{beispiele}

\begin{remark}[Konstruktion von Idealen]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $X\subset A$ beliebig. Dann gibt es ein eindeutig
    bestimmtes kleinstes Ideal von $A$, das $X$ enth\"alt n\"amlich
    \[(X):=\left\{\sum\limits_{i=1}^na_ix_i\colon n\in\N,\, x_i\in
      X,\,a_i\in A,\,i=1,\ldots,n\right\}.\] Jedes Ideal, welches $X$
    enth\"alt muss n\"amlich auch diese Menge enthalten und der
    Ausdruck auf der rechten Seite ist ein Ideal. \par Beachte, dass
    $(\emptyset)=\{0\}$ gilt. \par Ist $X=\{x_1,\ldots,x_n\}$ endlich,
    so schreiben wir auch $(X)=(x_1,\ldots,x_n)=Ax_1+\ldots+Ax_n$. 
  \item Ein Ideal $I\subset A$ hei\ss{}t Hauptideal, falls es ein
    $a\in I$ mit $I=(a)$ gibt. \par F\"ur $n\in\Z$ und $p\in K[t]$
    haben wir die Hauptideale $n\Z$ und $(p)$ bereits gesehen. 
  \item Ist $(I_\lambda)_{\lambda\in\Lambda}$ eine Familie von Idealen
    in $A$, so ist auch $\bigcap\limits_{\lambda\in\Lambda}I_\lambda$
    ein Ideal von $A$.\par Dies folgt direkt nach der Definition eines
    Ideals. 
  \item Seien $I,J\subset A$ Ideale. Dann ist $I\cup J$ im allgemeinen
    kein Ideal mehr (z.\,B.{} $2\Z\cup3\Z$). Wir definieren
    daher \[I+J:=(I\cup J)=\{a+b\colon a\in I,\, b\in J\}.\] 
  \item Seien $I,J\subset A$ Ideale. Dann definieren wir das
    Idealprodukt durch \[IJ:=(\{ab\colon a\in I,\, b\in J\}).\] 
    Es gilt \[IJ=\{a_1b_1+\ldots+a_nb_n\colon n\in\N,\,a_i\in
    I,\,b_i\in J,\,i=1,\ldots,n\},\] da $IJ$ s\"amtliche Summen auf
    der rechten Seite enthalten muss. Da die rechte Seite bereits ein
    Ideal ist, folgt aufgrund der geforderten Minimalit\"at beim von
    einer Menge erzeugten Ideal die Gleichheit. \par
    Es gilt $IJ\subset I\cap J$ (siehe unten). 
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $A$ ein Ring (kommutativ und mit Eins). 
  \begin{enumerate}[(i)]
  \item Seien $I,J\subset A$ zwei Ideale. Dann hei\ss{}en $I$ und $J$
    relativ prim oder teilerfremd, wenn $I+J=(1)$ gilt. Es gibt also
    $a\in I$ und $b\in J$ mit $a+b=1$.
  \item Seien $I_1,\ldots,I_n$ Ideale von $A$. Dann hei\ss{}en die
    Ideale paarweise relativ prim, falls f\"ur beliebige $i\neq
    j\in\{1,\ldots,n\}$ bereits $I_i+I_j=A$ gilt.
  \end{enumerate}
\end{definition}

\begin{theorem}
  Seien $I,J\subset A$ zwei Ideale. Dann gilt $IJ\subset I\cap
  J$. Sind $I$ und $J$ relativ prim, so gilt die Gleichheit $IJ=I\cap
  J$.
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Seien $a\in I$ und $b\in J$. Dann ist $ab\in I\cap J$. Also
    folgt $IJ\subset I\cap J$. 
  \item Seien $I$ und $J$ relativ prim. Dann gibt es $a\in I$ und
    $b\in J$ mit $a+b=1$. Sei nun $c\in I\cap J$. Dann gilt $c=(a+b)c
    =ac+bc\in IJ$. Also ist $I\cap J\subset IJ$. \qedhere
  \end{enumerate}
\end{proof}

\begin{beispiele}[Ideale von $\Z$]
  Seien $a,b\in\Z$. Sei $\mathbb P$ die Menge aller Primzahlen.  Seien
  $\alpha_i,\beta_i\in\N$, $i\in\mathbb P$, fast alle Null,
  $\epsilon,\delta\in\{\pm1\}$ und
  gelte \[a=\epsilon\cdot\prod\limits_{p\in\mathbb
    P}p^{\alpha_p}\quad\text{sowie}\quad b=\delta\cdot
  \prod\limits_{p\in\mathbb P}p^{\beta_p}.\] Aufgrund der Existenz
  und Eindeutigkeit der Primfaktorzerlegung existiert solch eine
  Darstellung. Die unendlichen Produkte sind wohldefiniert, da fast
  alle Faktoren gleich $1$ sind. Wir definieren den gr\"o\ss{}ten
  gemeinsamen Teiler ($\ggT$) und das kleinste gemeinsame Vielfache
  ($\kgV$) durch \[\ggT(a,b):=\prod\limits_{p\in\mathbb P}
  p^{\min\{\alpha_p,\beta_p\}} \quad\text{sowie}\quad
  \kgV(a,b):=\prod\limits_{p\in\mathbb P}
  p^{\max\{\alpha_p,\beta_p\}}.\] $\ggT$ und $\kgV$ sind aufgrund der
  Eindeutigkeit der Primfaktorzerlegung wohldefiniert. Es gelten
  \begin{align*}
    (a)+(b)=&\,(a,b)=(\ggT(a,b)),\umbruch\\
    (a)\cap(b)=&\,(\kgV(a,b))\umbruch
    \intertext{sowie}
    (a)\cdot(b)=&\,(ab). 
  \end{align*}
\end{beispiele}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item $(a)+(b)=(a,b)$ gilt nach Definition. \glqq$\subset$\grqq{}
    ist klar, da jedes Element in $(a)$ und $(b)$ durch $\ggT(a,b)$
    teilbar ist. Die Umkehrung gilt, da es $c,d\in\Z$ mit
    $ac+bd=\ggT(a,b)$ gibt. Dies werden wir sp\"ater als
    Konsequenz aus dem Euklidischen Algorithmus zeigen.
  \item Dies folgt aus der Definition von kgV$(a,b)$: F\"ur jeden
    Primfaktor ist die mindestens auftretende Potenz in den Mengen von
    Zahlen auf beiden Seiten gleich.
  \item In der Beschreibung des Idealproduktes k\"onnen wir
    s\"amtliche Summanden $a_ib_i$ durch $ab$ oder Null ersetzen und
    erhalten $(a)\cdot(b)=\{nab\colon n\in\Z\}=(ab)$.  
  \end{enumerate}
\end{proof}

\begin{definition}
  Sei $I\subset A$ ein Ideal. Dann hei\ss{}t $I$ maximales Ideal von
  $A$, falls $I\neq A$ gilt und f\"ur jedes Ideal $J$ mit $I\subset
  J$ entweder $I=J$ oder $J=A$ gilt. 
\end{definition}

\begin{theorem}\label{ideal quot kp thm}
  Sei $I\subset A$ ein Ideal. Dann ist $I$ genau dann maximal, wenn
  $A/I$ ein K\"orper ist. 
\end{theorem}
\begin{proof}[Beweis]
  \neueZeilealt \Hinrichtung Sei $a\in A\setminus I$ beliebig. Wir
  wollen nachweisen, dass $a+I$ in $A/I$ invertierbar ist. Da $I$
  maximal ist, gilt $A=I+(a)$. Es existieren daher insbesondere $b\in
  A$ und $c\in I$ mit $1=c+ba$. Dies impliziert $1+I=(b+I)(a+I)$ in
  $A/I$. \par
  \Rueckrichtung Ist $I$ nicht maximal, so gibt es ein Ideal $J$ mit
  $I\subsetneq J\subsetneq A$. Sei $a\in J$. G\"abe es $b+I\in A/I$
  mit $1\equiv ab$ (mod $I$), so w\"are $1\in I+Aa\subset J$. Also
  w\"are $A=A1\subset J$. Widerspruch.
\end{proof}

Um zu zeigen, dass es in jedem Ring ein maximales Ideal gibt,
ben\"otigen wir das Zornsche Lemma. 
\begin{lemma}[Zornsches Lemma]
  Sei $\mathcal M$ nichtleer und $\le$ eine Halbordnung auf $\mathcal
  M$. Besitzt jede total geordnete Teilmenge $\mathcal
  N\subset\mathcal M$ eine obere Schranke in $\mathcal M$, also ein
  $a\in \mathcal M$ mit $b\le a$ f\"ur alle $b\in\mathcal N$, so
  besitzt $\mathcal M$ mindestens ein maximales Element $m$. ($m$ ist
  maximales Element von $\mathcal M$, falls $m\in\mathcal M$ gilt und
  aus $m\le a$, $a\in \mathcal M$ stets $a=m$ folgt.)
\end{lemma}
\begin{proof}[Beweis]
  Vorlesung \"uber Mengenlehre. 
\end{proof}

Wir zeigen damit zun\"achst als Nachtrag, dass jeder Vektorraum eine
Basis besitzt.
\begin{theorem}
  Sei $V$ ein $K$-Vektorraum. Dann besitzt $V$ eine Basis. 
\end{theorem}
\begin{proof}[Beweis]
  Wir wollen das Zornsche Lemma benutzen und zeigen, dass $V$ eine
  maximale linear unabh\"angige Teilmenge besitzt.  Sei $\mathcal M$
  die Menge aller linear unabh\"angigen Teilmengen von $V$. Dann ist
  $\emptyset\in\mathcal M$, die Menge also nicht leer. Als Halbordnung
  auf $\mathcal M$ verwenden wir die Mengeninklusion $\subset$. Sei
  $\mathcal N\subset\mathcal M$ eine total geordnete Teilmenge von
  $\mathcal M$. Definiere $S:=\bigcup\limits_{N\in\mathcal N} N$. Dann
  ist $S$ eine Teilmenge von $V$. Wir wollen zeigen, dass $S$ eine
  obere Schranke f\"ur $\mathcal N$ ist. $N\subset S$ f\"ur beliebiges
  $N\in\mathcal N$ ist nach Definition klar. Also m\"ussen wir noch
  nachweisen, dass $S$ linear unabh\"angig ist. Seien dazu $n\in\N$
  und $a_1,\ldots,a_n\in S$ beliebig. Dann gibt es
  $N_1,\ldots,N_n\in\mathcal N$ mit $a_i\in N_i$ f\"ur
  $i=1,\ldots,n$. Da $\mathcal N$ total geordnet ist finden wir
  induktiv ein $i_0$ mit $N_i\subset N_{i_0}$ f\"ur
  $i=1,\ldots,n$. Also gilt $a_1,\ldots,a_n\in N_{i_0}$. Daraus
  l\"asst sich wegen der linearen Unabh\"angigkeit von $N_{i_0}$ die
  Null nur auf triviale Art und Weise linear kombinieren. Also ist $S$
  linear unabh\"angig. Aufgrund des Zornschen Lemmas existiert nun ein
  maximales Element $B\in\mathcal M$. Dies ist auch eine maximale
  linear unabh\"angige Teilmenge von $V$.
\end{proof}

\begin{theorem}
  Sei $A$ ein Ring und $I\subsetneq A$ ein Ideal. Dann gibt es ein
  maximales Ideal $J$ mit $I\subset J\subset A$. 
\end{theorem}
\begin{proof}[Beweis]
  Wir wollen das Zornsche Lemma benutzen. Sei $\mathcal M$ die Menge
  aller Ideale in $A$, die $I$ enthalten und ungleich $A$ sind. Dann
  ist $I\in\mathcal M$ und somit gilt $\mathcal M\neq\emptyset$. Auf
  $\mathcal M$ verwenden wir $\subset$ als partielle Ordnung. Sei
  $\mathcal N\subset\mathcal M$ eine beliebige total geordnete
  Teilmenge. Wir wollen zeigen, dass $\mathcal N$ eine obere Schranke
  besitzt. Definiere dazu $S:=\bigcup\limits_{N\in\mathcal N}N$. Dann
  gilt nach Definition $N\subset S$ f\"ur alle $N\in\mathcal
  N$. $I\subset S$ ist ebenfalls klar. Weiterhin ist $S$ ein Ideal: Je
  endlich viele Elemente $a_i\in S$ liegen in einem gemeinsamen
  $N\in\mathcal N$, da $\mathcal N$ total geordnet ist. Damit rechnet
  man direkt nach, dass $S$ ein Ideal ist. \par
  Wir m\"ussen ausschlie\ss{}en, dass bereits $S=A$ gilt. W\"are
  $S=A$, so erhalten wir $1\in S$ und damit $1\in N$ f\"ur ein
  $N\in\mathcal N$. Dies widerspricht aber der Definition von
  $\mathcal M$. Somit k\"onnen wir das Zornsche Lemma anwenden und
  erhalten ein maximales Element $J$. $J$ ist bereits ein maximales
  Ideal: Sei $a\in A\setminus J$ beliebig. Dann ist $J+(a)\supsetneq
  J$ ein weiteres Ideal. Da $J$ bez\"uglich der Halbordnung maximal
  ist, gilt $J+(a)\not\in\mathcal M$, also $J+(a)=A$. Damit ist $J$
  ein maximales Ideal.
\end{proof}

\Subsection{Teilbarkeit in Ringen}

Wir wollen wieder stets kommutative Ringe mit Eins betrachten. 

\begin{definition}
  Sei $A$ ein kommutativer Ring mit Eins. Dann hei\ss{}t $A$
  nullteilerfrei (oder Integrit\"atsring), wenn f\"ur $a,b\in A$ mit
  $ab=0$ folgt, dass $a=0$ oder $b=0$ gilt.
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item In einem nullteilerfreien Ring folgt aus $ac=bc$ mit $c\neq0$,
    dass $(a-b)c=0$ und somit $a=c$ ist.
  \item K\"orper sind (als Ringe aufgefasst) nullteilerfrei, ebenso
    Teilringe nullteilerfreier Ringe. 
  \item Sei $A$ ein nullteilerfreier Ring. Dann ist auch der
    Polynomring $A[t]$ nullteilerfrei: Betrachte die jeweils
    h\"ochsten von Null verschiedenen Koeffizienten. 
  \item Sei $n\in\N\setminus\{0\}$. Dann ist $\Z/n\Z$ genau dann
    nullteilerfrei, wenn $n$ eine Primzahl ist.
  \end{enumerate}
\end{remark}
\begin{proof}[Beweis]
  Wir zeigen nur die letzte Aussage: \par
  \Hinrichtung Sei $\Z/n\Z$ nullteilerfrei. W\"are $n$ keine Primzahl,
  so g\"abe es $k,l\in\N$ mit $k,l\in\{1,2,\ldots,n-1\}$ und
  $kl=n$. Daraus folgt $(k+n\Z)(l+n\Z)=0+n\Z$. Dies widerspricht der
  Annahme, dass $\Z/n\Z$ nullteilerfrei ist.\par
  \Rueckrichtung Sei $n$ eine Primzahl. Gelte $(k+n\Z)(l+n\Z)=0+n\Z$
  f\"ur $k,\,l\in\Z$. Somit gibt es ein $r\in\Z$ mit $kl=rn$. Also
  folgt $n|kl$. Da $n$ eine Primzahl ist folgt $n|k$ oder $n|l$. Also
  gilt $k+n\Z=0+n\Z$ oder $l+n\Z=0+n\Z$. Somit ist $\Z/n\Z$
  nullteilerfrei. 
\end{proof}

\begin{remark}
  Sei $A$ ein kommutativer Ring mit Eins. Dann ist $A^*:=\{a\in
  A\colon \exists\, b\in A \text{ mit }ab=1\}$ eine abelsche Gruppe
  (Direktes Nachrechnen). Die Elemente von $A^*$ hei\ss{}en
  Einheiten. \par Sei $a\in A^*$. F\"ur das Element $b\in A$ mit
  $ab=1$ schreiben wir $b=a^{-1}$. Es gilt $a^{-1}\in A^*$. Das
  Element $b\in A$ ist eindeutig bestimmt: $b=b\left(a\tilde b\right)
  =\tilde b$. \par
  Es gilt $\Z^*=\{\pm1\}$. Sei $K$ ein K\"orper. Dann ist
  $(K[t])^*=K^* =K\setminus\{0\}$.
\end{remark}

Wir nehmen ab jetzt an, dass s\"amtliche betrachteten Ringe nicht nur
kommutativ sind und eine Eins enthalten sondern auch nullteilerfrei
sind. 

\begin{definition}
  Sei $A$ ein Ring (kommutativ, nullteilerfrei, mit Eins). Seien
  $a,b\in A$. 
  \begin{enumerate}[(i)]
  \item Wir schreiben $a|b$, \dh $a$ teilt $b$, falls es ein $c\in A$
    mit $b=ac$ gibt. $a$ hei\ss{}t dann ein Teiler von $b$. 
  \item Gilt $a|b$ und $b|a$, so hei\ss{}en $a$ und $b$ assoziiert:
    $a\sim b$. 
  \end{enumerate}
\end{definition}

\begin{lemma}
  Sei $A$ ein Ring (kommutativ, nullteilerfrei, mit Eins). Seien
  $a, b, c,$ $a', b'\in A$. Dann gelten:
  \begin{enumerate}[(i)]
  \item\label{teilt i} $a|b$ $\Longleftrightarrow$ $(b)\subset(a)$
  \item Gilt $a|b$ und $a'|b'$, so gilt auch $aa'|bb'$.
  \item F\"ur $c\neq0$ sind $a|b$ und $ac|bc$ \"aquivalent. 
  \item Gelten $a|b$ und $a|c$, so folgt $a|(b+c)$. 
  \item Die Aussagen $a\sim b$, $(a)=(b)$ und die Existenz eines $u\in
    A^*$ mit $b=au$ sind \"aquivalent
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item \Hinrichtung Gelte $a|b$, also ist $b=ac$ f\"ur ein $c\in
    A$. Daraus folgt $(b)=\{db\colon d\in A\}=\{(dc)a\colon d\in
    A\}\subset \{fa\colon f\in A\} =(a)$.\par
    \Rueckrichtung Aus $(b)\subset(a)$ folgt insbesondere, dass es ein
    $c\in A$ mit $ca=b$ gibt. Somit folgt $a|b$. 
  \item Klar.
  \item \Hinrichtung Ist Klar.\par
    \Rueckrichtung Gelte $ac|bc$. Somit gibt es ein $d\in A$ mit
    $acd=bc$ oder $(ad-b)c=0$. Da $A$ nullteilerfrei ist folgt $ad=b$
    und somit $a|b$. 
  \item Klar.
  \item Nach \eqref{teilt i} sind die ersten beiden Aussagen
    \"aquivalent. \par
    \Hinrichtung Ist $a=0$, so folgt aus $a|b$ bereits $b=0$ und die
    Aussage ist trivial. Sei also ohne Einschr\"ankung $a\neq0$. Gelte
    $a\sim b$. Nach Definition gibt es somit $c,d\in A$ mit $a=bc$ und
    $b=ad$. Wir erhalten $a=bc=acd$. Wegen $a\neq0$ folgt
    $cd=1$. Somit sind $c$ und $d$ Einheiten.\par
    \Rueckrichtung Klar.\qedhere
  \end{enumerate}
\end{proof}

\begin{definition}
  Sei $A$ ein Ring. Dann hei\ss{}t $a\in A$ irreduzibel (unzerlegbar),
  falls $a\not\in A^*\cup\{0\}$ gilt und aus $a=bc$, $b,c\in A$,
  bereits $b\in A^*$ oder $c\in A^*$ folgt. \par
  Ist $a\in A\setminus(A^*\cup\{0\})$ nicht irreduzibel, so hei\ss{}t
  $a$ reduzibel. 
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ein Element $a\not\in A^*\cup\{0\}$ ist genau dann
    irreduzibel, wenn jeder Teiler von $a$ zu $1$ oder $a$ assoziiert
    ist. Wir sagen auch, dass $a$ keine echten Teiler besitzt.
  \item In $A=\Z$ sind die irreduziblen Elemente genau $\{\pm p\colon
    p \text{ ist Primzahl}\}$. 
  \item Sei $K$ ein K\"orper. Dann ist $f\in K[t]$ genau dann
    irreduzibel, wenn $\deg f\ge1$ gilt und $f$ keinen Teiler $g\in
    K[t]$ mit $1\le\deg g<\deg f$ besitzt. \par
    Polynome vom Grad eins sind also stets irreduzibel.
  \item Ist insbesondere $K=\C$, so sind genau die affin linearen
    Polynome irreduzibel. Dies folgt aus dem Fundamentalsatz der
    Algebra (jedes nichtkonstante komplexe Polynom besitzt eine
    Nullstelle), vergleiche eine Vorlesung \"uber Funktionentheorie.
  \item Ist $K=\R$, so sind auch die zu $f=t^2+at+b$ mit $a^2-4b<0$
    assoziierten Polynome irreduzibel.
    \begin{proof}[Beweis]
      \Hinrichtung Sei $f$ wie angegeben. Ist $\deg f=1$, so ist klar,
      dass $f$ irreduzibel ist. Ist $\deg f=2$, leiten wir mit
      quadratischer Erg\"anzung zwei Nullstellen her
      (Mitternachtsformel): Wir betrachten zun\"achst $f$ verm\"oge
      $\R\subset\C$ als komplexes Polynom. Schreibe $t^2+at+b=0$ als
      $\left(t+\frac a2\right)^2-\frac{a^2}4+b=0$ und weiter als
      $\left(t+\frac a2\right)^2 =-\underbrace{\left(b
          -\frac{a^2}4\right)}_{>0}$. Wir erhalten $t+\frac a2=\pm
      i\sqrt{b-\frac{a^2}4}$ oder $t=-\frac a2\pm
      i\sqrt{b-\frac{a^2}4}$. Man \"uberpr\"uft direkt, dass dies
      Nullstellen sind. Wegen der Polynomdivision (demn\"achst) wissen
      wir, dass ein Polynom $n$-ten Grades maximal $n$ Nullstellen
      besitzen kann. Somit besitzt $f$ keine reellen
      Nullstellen. Wegen $\deg f=2$ ist $f$ damit irreduzibel. \par
      \Rueckrichtung Sei $f\in\R[t]$ mit $\deg f>1$
      irreduzibel. Verm\"oge $\R\subset\C$ k\"onnen wir $f$ als
      komplexes Polynom auf"|fassen. Dann zerf\"allt $f$ \"uber $\C$
      in Linearfaktoren, \dh $f$ ist ein Produkt affin linearer
      Funktionen vom Grad eins. Jede dieser affin linearen Funktionen
      besitzt genau eine Nullstelle. Ist eine dieser Nullstellen
      reell, so sind wir fertig. Sei $c$ eine Nullstelle. Dann ist
      auch $\bar c$ eine Nullstelle, denn es gilt
      \[f(\bar c)=\bar c^2+a\bar c+b =\overline{c^2+ac+b} =\bar 0=0.\]
      Nun ist $(t-c)(t-\bar c)=t^2-(c+\bar c)t-c\bar c$ ein reelles
      Polynom, das $f$ teilt. Somit ist $\deg f\ge3$ f\"ur ein
      irreduzibles Polynom ausgeschlossen. Mit quadratischer
      Erg\"anzung wie oben sehen wir, dass ein Polynom zweiten Grades
      mit $a^2-4b\ge0$ reduzibel ist. Man erh\"alt direkt die
      Nullstellen $t=-\frac a2\pm\sqrt{\frac{a^2}4-b}$. 
    \end{proof}
  \item In $\Z$ k\"onnen wir eine Nicht-Primzahl als Produkt von zwei
    Nicht-Einheiten schreiben. Ist eine dieser Zahlen noch keine
    Primzahl, so k\"onnen wir sie wiederum als Produkt von zwei
    Nicht-Einheiten schreiben. Beispiel: $12=2\cdot 6=2\cdot 2\cdot
    3$. Nach endlich vielen Schritten bricht dies ab, da jeder der
    Faktoren einer Zahl einen kleineren Betrag als das Produkt
    besitzt. In allgemeinen Ringen braucht solch ein Vorgehen nicht
    abzubrechen, jedoch in Hauptidealringen (Definition folgt
    nach). In Hauptidealringen wird n\"amlich jede aufsteigende
    Idealkette station\"ar, vergleiche den Beweis von Theorem
    \ref{haupt ideal ring irred zerl thm}.
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $A$ ein Ring (kommutativ, nullteilerfrei, mit Eins). Dann
  hei\ss{}t $A$ Hauptidealring, falls jedes Ideal in $A$ ein
  Hauptideal ist. 
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item In einem K\"orper gibt es nur Hauptideale, n\"amlich $(0)$ und
    $(1)$. 
  \item Jeder euklidische Ring ist ein Hauptidealring (Definition und
    Beweis folgen). Somit sind $\Z$ und $K[t]$, $K$ ein K\"orper,
    Hauptidealringe. 
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $A$ ein Hauptidealring. Seien $a_1,\ldots,a_n\in A$. Da $A$ ein
  Hauptidealring ist, gibt es somit $b,c\in A$
  mit \[(a_1,\ldots,a_n)=(b)\quad\text{sowie}\quad
  (a_1)\cap\ldots\cap(a_n)=(c).\] Wir nennen $b$ einen gr\"o\ss{}ten
  gemeinsamen Teiler von $a_1,\ldots,a_n$, $b=\ggT(a_1,\ldots,a_n)$,
  und $c$ ein kleinstes gemeinsames Vielfaches von $a_1,\ldots,a_n$,
  $c=\kgV(a_1,\ldots,a_n)$. 
\end{definition}

\begin{lemma}
  Sie $A$ ein Hauptidealring. Seien $a_1,\ldots,a_n,b,c\in A$. Gelte
  $b=\ggT(a_1,\ldots,a_n)$ sowie $c=\kgV(a_1,\ldots,a_n)$. Dann gelten
  \begin{enumerate}[(i)]
  \item $b|a_i$ f\"ur alle $i=1,\ldots,n$.
  \item Ist $b'\in A$ und gilt $b'|a_i$ f\"ur alle $i=1,\ldots,n$, so
    folgt $b'|b$. \par
  \item $a_i|c$ f\"ur alle $i=1,\ldots,n$. 
  \item Ist $c'\in A$ und gilt $a_i|c'$ f\"ur alle $i=1,\ldots,n$, so
    folgt $c|c'$. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Es gilt $(a_i)\subset(a_1,\ldots,a_n)=(b)$ f\"ur alle
    $i=1,\ldots,n$. Also folgt $b|a_i$ f\"ur $i=1,\ldots,n$.
  \item Gilt $b'|a_i$, $i=1,\ldots,n$, so folgt
    $(a_i)\subset (b')$ f\"ur $i=1,\ldots,n$ und daher auch 
    $(a_1,\ldots,a_n)\subset (b')$. Wegen $(b)=(a_1,\ldots,a_n)\subset
    (b')$ erhalten wir $b'|b$. 
  \item Nach Definition des $\kgV$ folgt $(c)\subset (a_i)$, also auch
    $a_i|c$ f\"ur alle $i=1,\ldots,n$. 
  \item Gelte $a_i|c'$ f\"ur alle $i=1,\ldots,n$. Dann gilt
    $(c')\subset (a_i)$ f\"ur alle $i=1,\ldots,n$. Es folgt
    $(c')\subset (a_1)\cap\ldots\cap(a_n)=(c)$. Also gilt
    $c|c'$. \qedhere 
  \end{enumerate}
\end{proof}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Das Lemma rechtfertigt die Bezeichnungen \glqq gr\"o\ss{}ter
    gemeinsamer Teiler\grqq{} bzw.{} \glqq kleinstes gemeinsames
    Vielfaches\grqq. 
  \item Beachte, dass $\ggT$ und $\kgV$ nur bis auf Einheiten bestimmt
    sind. Um dies zu betonen schreiben wir auch $\ggT\sim\ldots$. 
  \item Ist $A$ kein Hauptidealring, so brauchen $\ggT$ oder $\kgV$
    nicht zu existieren. 
  \end{enumerate}
\end{remark}

Als Vorbereitung f\"ur die Zerlegung in irreduzible Elemente zeigen
wir
\begin{lemma}\label{irred teilt prod lem}
  Sei $A$ ein Hauptidealring und $p\in A$ irreduzibel. Seien
  $a_1,\ldots,a_n\in A$ und gelte $p|a_1\cdot\ldots\cdot a_n$. Dann
  gibt es ein $i\in\{1,\ldots,n\}$ mit $p|a_i$. 
\end{lemma}
\begin{proof}[Beweis]
  Wir zeigen die Aussage nur f\"ur den Fall $n=2$, also $p|ab$. Der
  allgemeine Fall folgt dann per Induktion. Wir unterscheiden zwei F\"alle:
  \begin{enumerate}[(i)]
  \item Gilt $(a,p)=A=(1)$, so gibt es $r,s\in A$ mit $ra+sp=1$. Wir
    multiplizieren diese Gleichung mit $b$ und erhalten
    $r\ul{ab}+bs\ul p=b$. Da $p$ die unterstrichenen Terme teilt folgt
    auch $p|b$. 
  \item Gelte nun $(a,p)\neq(1)$. Da $A$ ein Hauptidealring ist,
    gibt es ein $c\in A$ mit $(a,p)=(c)$. Wegen $(c)\neq(1)$ ist $c$
    keine Einheit. Nach Definition ist $c=\ggT(a,p)$. Also folgt
    $c|p$. Da $p$ irreduzibel ist, erhalten wir $c\sim p$. Aus $c|a$
    folgt also auch $p|a$.\qedhere
  \end{enumerate}
\end{proof}

\begin{theorem}\label{haupt ideal ring irred zerl thm}
  Sei $A$ ein Hauptidealring. Sei $a\in
  A\setminus(A^*\cup\{0\})$. Dann gibt es $n\in\N$ und irreduzible
  Elemente $p_1,\ldots,p_n\in A$ mit \[a=p_1\cdot\ldots\cdot p_n.\]
  Bis auf die Anordnung und die Wahl anderer assoziierter irreduzibler
  Elemente sind die Faktoren eindeutig bestimmt. 
\end{theorem}
\begin{proof}[Beweis]
  \textbf{Existenz:} Wir behaupten, dass sich jedes Element $a\in
  A\setminus(A^*\cup\{0\})$ als ein endliches Produkt von irreduziblen
  Elementen schreiben l\"asst. Widerspruchsbeweis: Angenommen, $a$
  w\"are ein Gegenbeispiel. Dann ist $a$ selbst nicht irreduzibel,
  besitzt also eine Darstellung $a=a_1\cdot a_1'$ mit $a_1,a_1'\in
  A\setminus A^*$. Nach Annahme l\"asst sich mindestens einer der
  beiden Faktoren nicht als endliches Produkt von irreduziblen
  Elementen schreiben, ohne Einschr\"ankung $a_1$. Wir k\"onnen daher
  $a_1=a_2\cdot a_2'$ mit $a_2,a_2'\in A\setminus A^*$ schreiben. Nach
  Annahme l\"asst sich mindestens einer der beiden Faktoren wiederum
  nicht als endliches Produkt von irreduziblen Elementen schreiben,
  ohne Einschr\"ankung $a_2$. Induktiv erhalten wir somit eine
  Folge \[a=a_0,a_1,a_2,\ldots\in A\] mit der Eigenschaft
  $a_{i+1}|a_i$ f\"ur alle $i\in\N$ aber $a_i\not\sim a_{i+1}$. Dies
  k\"onnen wir auch als Idealkette \[(a_0)\subsetneq (a_1)\subsetneq
  (a_2)\subsetneq\ldots\] schreiben. Wir definieren
  $I:=\bigcup\limits_{i\in\N} (a_i)$. Da die Vereinigung einer Folge
  von aufsteigenden Idealen wieder ein Ideal ist (leicht
  nachzurechnen), ist $I$ ein Ideal. Nun ist $A$ ein Hauptidealring,
  also $I=(b)$ f\"ur ein $b\in A$. Nach Definition von $I$ gibt es ein
  $i_0$ mit $b\in (a_{i_0})$. Wir erhalten \[(b)\subset
  (a_{i_0})\subsetneq (a_{i_0+1})\subset(b).\] Widerspruch.\par
  \textbf{Eindeutigkeit:} Gelte $a=p_1\cdot\ldots\cdot
  p_r=q_1\cdot\ldots\cdot q_s$ mit $r,s\in\N$. Es folgt
  $p_1\cdot\ldots\cdot p_r\sim q_1\cdot\ldots\cdot q_s$. Es gilt
  $p_r|q_1\cdot\ldots\cdot q_s$. Nach Lemma \ref{irred teilt prod lem}
  teilt $p_r$ einen der Faktoren auf der rechten Seite, ohne
  Einschr\"ankung $q_s$. Da $q_s$ selbst irreduzibel ist, folgt
  $p_r\sim q_s$. Schreiben wir die Relation $\sim$ als Gleichheit mit
  Hilfe einer zus\"atzlichen Einheit, so k\"onnen wir k\"urzen und
  erhalten $p_1\cdot\ldots\cdot p_{r-1}\sim q_1\cdot\ldots\cdot
  q_{s-1}$. Nach endlich vielen Schritten sind die Faktoren auf einer
  Seite aufgebraucht und wir erhalten beispielsweise $1\sim
  q_1\cdot\ldots\cdot q_{s-r}$. F\"ur $s\neq r$ erhalten wir einen
  Widerspruch, da ein irreduzibles Element keine Einheit sein kann,
  f\"ur $r=s$ folgt die Behauptung. 
\end{proof}


\begin{definition}
  Sei $A$ ein Hauptidealring. $P\subset A$ hei\ss{}t ein
  Vertretersystem der irreduziblen Elemente von $A$, wenn $P$ aus
  jeder \"Aquivalenzklasse dieser Elemente unter der
  \"Aquivalenzrelation $\sim$ genau ein Element enth\"alt. 
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ist $A=\Z$, so sind die Primzahlen ein solches Vertretersystem
    irreduzibler Elemente in $A$.
  \item Ist $A=K[t]$, $K$ ein K\"orper, so w\"ahlen wir unter den
    jeweils assoziierten Polynomen das normierte aus, \dh das mit
    f\"uhrendem Koeffizienten Eins (den Nachweis, dass $K[t]$ ein
    Hauptidealring ist, liefern wir noch nach). Dies ist ein solches
    Vertretersystem irreduzibler Elemente in $K[t]$.
  \end{enumerate}  
\end{beispiele}

Aus Theorem \ref{haupt ideal ring irred zerl thm} erhalten wir
\begin{corollary}\label{prod irred darst thm}
  Sei $A$ ein Hauptidealring und $P$ ein Vertretersystem der
  irreduziblen Elemente in $A$. Sei $f\in A\setminus\{0\}$. Dann gibt
  es $u\in A^*$ und $v_p(f)\in\N$, $p\in P$, wobei fast alle $v_p(f)$
  verschwinden, so dass \[f=u\cdot\prod\limits_{p\in P} p^{v_p(f)}\]
  gilt. 
\end{corollary}

\begin{corollary}
  Sei $A$ ein Hauptidealring und seien $a,b\in A\setminus\{0\}$. Sei
  $P$ ein Vertretersystem der irreduziblen Elemente von $A$. Dann sind
  folgende Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{teilt aequ i} $a|b$
  \item\label{teilt aequ ii} $v_p(a)\le v_p(b)$ f\"ur alle $p\in P$. 
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  \glqq\eqref{teilt aequ ii} $\Longrightarrow$ \eqref{teilt aequ
    i}\grqq: Klar.\par
  \glqq\eqref{teilt aequ i} $\Longrightarrow$ \eqref{teilt aequ
    ii}\grqq: Gelte $a|b$, also $c\cdot u_a\cdot\prod\limits_{p\in P}
  p^{v_p(a)} =u_b\cdot\prod\limits_{p\in P} p^{v_p(b)}$ f\"ur ein
  $c\in A$. Gelte $v_p(a)\ge1$. Dann teilt $p$ die linke Seite und
  daher auch die rechte Seite. Da ein irreduzibles Element kein nicht
  assoziiertes irreduzibles Element teilen kann folgt
  $v_p(b)\ge1$. Wir teilen nun beide Seiten durch $p$. Per Induktion
  nach $v_p(a)$ folgt daraus die Behauptung. 
\end{proof}

Aus der Darstellung in Korollar \ref{prod irred darst thm} k\"onnen
wir auch $\ggT$ und $\kgV$ ablesen:
\begin{corollary}
  Sei $A$ ein Hauptidealring. Seien $a,b\in A\setminus\{0\}$. Dann
  gelten \[\ggT(a,b)\sim\prod\limits_{p\in P} p^{\min\{v_p(a),v_p(b)\}}
  \quad\text{sowie}\quad \kgV(a,b)\sim\prod\limits_{p\in P}
  p^{\max\{v_p(a),v_p(b)\}}.\] 
\end{corollary}

\begin{corollary}
  Sei $A$ ein Hauptidealring und $p\in A\setminus\{0\}$. Dann sind die
  folgenden Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{irred aequiv i} $p$ ist irreduzibel.
  \item\label{irred aequiv ii} $(p)$ ist ein maximales Ideal von $A$. 
  \item $A/(p)$ ist ein K\"orper. 
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  Nach Theorem \ref{ideal quot kp thm} m\"ussen wir nur noch die
  \"Aquivalenz von \eqref{irred aequiv i} und \eqref{irred aequiv ii}
  zeigen. \par
  \glqq \eqref{irred aequiv i} $\Longrightarrow$ \eqref{irred aequiv
    ii}\grqq: Da $p$ irreduzibel ist gilt $(p)\neq(1)$.  W\"are $(p)$
  nicht maximal, so g\"abe es ein $b\in A$ (da $A$ ein Hauptidealring
  ist) mit $(p)\subsetneq(b)\subsetneq(1)$. Daher gilt $b|p$ und
  $p\not\sim b$. Dies widerspricht der Irreduzibilit\"at von $p$. \par 
  \glqq \eqref{irred aequiv ii} $\Longrightarrow$ \eqref{irred aequiv
    i}\grqq: W\"are $p$ reduzibel, so g\"abe es Nicht-Einheiten
  $a,b\in A$ mit $p=ab$. Somit w\"are
  $(p)\subsetneq(a)\subsetneq(1)$. Dies widerspricht aber der
  Maximalit\"at von $(p)$. 
\end{proof}

\Subsection{Euklidische Ringe}
Euklidische Ringe verallgemeinern die (vermutlich bereits aus der
Schule bekannte) Division mit Rest f\"ur $\Z$ und $K[t]$. 

\begin{definition}
  Sei $A$ ein kommutativer nullteilerfreier Ring mit Eins. Eine
  euklidische Wertefunktion (Gradfunktion) auf $A$ ist eine
  Abbildungen $\delta\colon A\setminus\{0\}\to\N$ mit der folgenden
  Eigenschaft: Seien $a\in A$, $b\in A\setminus\{0\}$. Dann gibt es
  $q,r\in A$ mit $a=qb+r$ und ($r=0$ oder $\delta(r)<\delta(b)$). Wir
  nennen dies Division mit Rest und $r$ den Rest. \par Ein
  kommutativer nullteilerfreier Ring mit Eins und einer euklidischen
  Wertefunktion hei\ss{}t euklidischer Ring. 
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Auf $A=\Z$ definiert $\delta(a)=|a|$, $a\neq0$, eine
    Gradfunktion. Beispiel f\"ur eine Division mit Rest ist im Falle
    $a=13$ und $b=7$ die Gleichheit $13=1\cdot 7+6=2\cdot 7-1$, $q$
    und $r$ sind also im Allgemeinen nicht eindeutig bestimmt.
  \item Ist $K$ ein K\"orper, so ist $A=K[t]$ ein euklidischer Ring
    mit Gradfunktion $\delta(f):=\deg(f)$ f\"ur $f\neq0$.\par Beweis:
    Um $a=qb+r$ mit den gew\"unschten Eigenschaften zu erzielen sei
    ohne Einschr\"ankung $\deg a>\deg b$. Wir subtrahieren ein
    Vielfaches von $b$ von $a$, so dass der Grad strikt abnimmt. Nach
    endlich vielen Schritten erhalten wir damit das gew\"unschte
    Ergebnis.\par Beispiel: In $\mathbb F_2[t]$ wollen wir $t^4+t^3+1$
    mit Rest durch $t^2+1$ dividieren. Wir erhalten
    \begin{align*}
      \left(t^4+t^3+1\right)-t^2\cdot\left(t^2+1\right)
      =&\,t^4+t^3+1+t^4+t^2=t^3+t^2+1,\umbruch\\  
      \left(t^3+t^2+1\right)-t\cdot(t^2+1)
      =&\,t^3+t^2+1+t^3+t=t^2+t+1,\umbruch\\ 
      \left(t^2+t+1\right)-1\cdot\left(t^2+1\right)
      =&\,t^2+t+1+t^2+1=t,\umbruch
      \intertext{also}
      \left(t^4+t^3+1\right)
      =&\,\left(t^2+t+1\right)\cdot\left(t^2+1\right)+t.  
    \end{align*}
    Im Fall $A=K[t]$ sind $q,r$ eindeutig bestimmt: Gelte
    $a=pb+q=sb+r$ wie in der Division mit Rest gefordert. Gelte $\deg
    a\ge\deg b$. Sonst ist aus Gradgr\"unden $p=s=0$. Nun ergibt sich
    der f\"uhrende Koeffizient von $a$ als Produkt der f\"uhrenden
    Koeffizienten von $pb$ und $sb$. Somit stimmen die f\"uhrenden
    Koeffizienten von $p$ und $s$ und die Grade \"uberein. Seien diese
    f\"uhrenden Terme durch $ct^k$ gegeben. Wir subtrahieren \"uberall
    $ct^k\cdot b$. Somit haben wir den Grad von $a$ um Eins
    erniedrigt. Die Behauptung folgt nun per Induktion. 
  \item $\Z[i]$ mit $i^2=-1$ ist ein euklidischer Ring (\"Ubung). 
  \end{enumerate}
\end{remark}

\begin{theorem}
  Sei $(A,\delta)$ ein euklidischer Ring. Dann ist $A$ ein
  Hauptidealring. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $I\subset A$ ein beliebiges Ideal von $A$. Gelte ohne
  Einschr\"ankung $A\neq(0)$.  Da $\delta$ Werte in $\N$ annimmt, gibt
  es ein $a\in I$ mit $\delta(a)
  =\min\limits_{I\setminus\{0\}}\delta$. Wir behaupten, dass $(a)=I$
  gilt. Sei $b\in I$ beliebig, so erhalten wir nach Division mit Rest
  $b=ca+r$ f\"ur $c\in A$ und $r\in A$ mit $r=0$ oder
  $\delta(r)<\delta(a)$. Wegen $a,b\in I$ folgt $r\in I$. Ist $r=0$,
  so sind wir fertig. Sonst ist $\delta(r)<\delta(a)$ was aber wegen
  $\delta(a)=\min\limits_I\delta$ nicht sein kann. Es gilt also
  $b=ca$. Da $b$ beliebig war erhalten wir $I=(a)$.
\end{proof}

Daraus folgen die bereits angek\"undigten Beispiele f\"ur
Hauptidealringe. 
\begin{corollary}
  $\Z$ und $K[t]$, $K$ ein K\"orper, sind Hauptidealringe. 
\end{corollary}

Aus Korollar \ref{prod irred darst thm} erhalten wir damit die
folgenden beiden Resultate.
\begin{theorem}
  Sei $n\in\N\setminus\{0,1\}$. Dann l\"asst sich $n$ als Produkt von
  Primzahlen darstellen. Die Darstellung ist bis auf die Reihenfolge
  eindeutig. 
\end{theorem}

\begin{theorem}
  Sei $K$ ein K\"orper. Sei $f\in K[t]\setminus\{0\}$. Dann gibt es
  eine Darstellung $f=c\cdot f_1\cdot\ldots\cdot f_r$, wobei $c\in
  K^*$ ist und $f_i$ normierte irreduzible Polynome in $K[t]$
  sind. Bis auf die Reihenfolge ist diese Darstellung eindeutig. 
\end{theorem}

\begin{euklalg}
  Sei $A$ ein euklidischer Ring. Seien $a,b\in A$ mit $b\neq0$. Dann
  k\"onnen wir iterativ wie folgt eine Division mit Rest
  durchf\"uhren:
  \begin{align*}
    a=&\,q_0b+r_1, & \delta(r_1)<&\,\delta(b), &
    r_1\neq&\,0,\umbruch\\ 
    b=&\,q_1r_1+r_2, & \delta(r_2)<&\,\delta(r_1), &
    r_2\neq&\,0,\umbruch\\
    r_1=&\,q_2r_2+r_3, & \delta(r_3)<&\,\delta(r_2), &
    r_3\neq&\,0,\umbruch\\ 
    \vdots & & \vdots & & \vdots & \umbruch\\  
    r_i=&\,q_{i+1}r_{i+1}+r_{i+2}, &
    \delta(r_{i+2})<&\,\delta(r_{i+1}), & r_{i+2}\neq&\,0,\umbruch\\
    \vdots & & \vdots & & \vdots & \umbruch\\  
    r_{m-2}=&\,q_{m-1}r_{m-1}+r_m, & \delta(r_m)<&\,\delta(r_{m-1}), &
    r_m\neq&\,0,\umbruch\\
    r_{m-1}=&\,q_mr_m+0. & & & &
  \end{align*}
  Da $i\mapsto\delta(r_i)$ strikt monoton fallend ist, bricht diese
  iterierte Division mit Rest nach endlich vielen Schritten ab. 
\end{euklalg}

\begin{theorem}
  Mit den Bezeichnungen aus dem euklidischen Algorithmus gilt
  $(a,b)=(r_m)$, also $r_m\sim\ggT(a,b)$. 
\end{theorem}
\begin{proof}[Beweis]
  Von oben beginnend erhalten wir induktiv $r_1\in (a,b)$, $r_2\in
  (a,b)$, \ldots, $r_m\in(a,b)$. Somit gilt $(r_m)\subset (a,b)$. \par
  Von unten beginnend erhalten wir induktiv $r_{m-1}\in(r_m)$,
  $r_{m-2}\in(r_m)$, $r_{m-3}\in(r_m)$, \ldots, $r_1\in(r_m)$,
  $b\in(r_m)$ und $a\in (r_m)$. Wir erhalten $(a,b)\subset(r_m)$. Die
  Behauptung folgt.
\end{proof}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Wir k\"onnen den euklidischen Algorithmus auch verwenden um
    den gr\"o\ss{}ten gemeinsamen Teiler $d=\ggT(a,b)$ als $d=ra+sb$
    darzustellen. Dazu setzen wir iterativ die drittletzte,
    viertletzte, \ldots, zweite, erste Gleichung in die vorletzte
    Gleichung ein.
  \item Beispiel: In $\Z$ wollen wir $\ggT(91,17)$ bestimmen und als
    Linearkombination von $91$ und $17$ darstellen. Es gilt
    \begin{align*}
      91=&\,5\cdot17+6,\umbruch\\
      17=&\,3\cdot6-1,\umbruch\\
      6=&\,(-6)\cdot(-1).
    \end{align*}
    Durch Einsetzen erhalten wir von unten her
    \[-1=17-3\cdot 6=17-3\cdot(91-5\cdot17)=-3\cdot91+16\cdot17\] oder
    $1=3\cdot91-16\cdot17$. 
  \item Sei nun $A=\mathbb F_2[t]$, $f=t^7+t^6+t^4+t^3+t^2+t+1$,
    $g=t^3+1$. Wir erhalten
    \begin{align*}
      t^7+t^6+t^4+t^3+t^2+t+1
      =&\,\left(t^4+t^3\right)\cdot\left(t^3+1\right)
      +t^2+t+1,\umbruch\\
      t^3+1=&\,(t+1)\cdot\left(t^2+t+1\right)+0 
    \end{align*}
    und damit
    \[\ggT(f,g)=t^2+t+1=f+\left(t^4+t^3\right)g.\]
  \item Will man $\ggT(a_1,a_2,a_3)$ bestimmen und ihn aus den
    $a_i$'s linear kombinieren, so benutzt
    man \[(a_1,a_2,a_3)=((a_1,a_2),a_3)\] und wendet den euklidischen
    Algorithmus mehrfach an. Dies funktioniert analog auch f\"ur mehr
    als drei Faktoren.
  \end{enumerate}
\end{remark}

\begin{remark}[Simultane Kongruenzen]
  \label{sim kongr rem}
  Beschreibung des Problems: Sei $A$ ein Ring (kommutativ,
  nullteilerfrei und mit Eins) und seien $I_1,\ldots,I_n$ Ideale von
  $A$. Seien $a_1,\ldots,a_n\in A$ gegeben. Wir wollen das System
  \begin{align*}
    x\equiv&\,a_1&(\modulo I_1),\umbruch\\
    x\equiv&\,a_2&(\modulo I_2),\umbruch\\
    &\vdots&\umbruch\\
    x\equiv&\,a_n&(\modulo I_n)
  \end{align*}
  auf L\"osbarkeit untersuchen. Dies l\"asst sich wie folgt
  umformulieren: Definiere
  \begin{align*}
    \phi\colon A\to&\,A/I_1\times\ldots\times A/I_n,\\
    \phi(x)=&\,(x+I_1,\ldots,x+I_n). 
  \end{align*}
  Die simultane L\"osbarkeit der obigen Kongruenzen ist \"aquivalent
  zu $(a_1+I_1,\ldots,a_n+I_n)\in\im\phi$. Es gilt
  $\ker\phi=I_1\cap\ldots\cap I_n$. Gibt es \"uberhaupt eine L\"osung
  $x_0\in A$, so ist eine beliebige L\"osung aus $x_0+\ker\phi$.
\end{remark}

Bevor wir die simultanen Kongruenzen in Bemerkung \ref{sim kongr rem}
l\"osen k\"onnen ben\"otigen wir
\begin{proposition}
  \label{prop chin restsatz}
  Sei $A$ ein Ring (kommutativ, nullteilerfrei und mit Eins). Seien
  $I,J_1,\ldots,J_r$ Ideale von $A$. Gilt $I+J_i=A$ f\"ur alle
  $i=1,\ldots,r$, so folgt $I+J_1\cdot\ldots\cdot J_r=A$ und
  insbesondere $I+J_1\cap\ldots\cap J_r=A$. 
\end{proposition}
\begin{proof}[Beweis]
  Nach Voraussetzung gibt es $u_i\in I$ und $v_i\in J_i$ mit
  $u_i+v_i=1$ f\"ur $i=1,\ldots,r$. Wir multiplizieren diese
  Gleichungen und erhalten \[1=(u_1+v_1)\cdot\ldots\cdot(u_r+v_r) \in
  v_1\cdot\ldots\cdot v_r+I.\] Alle weiteren Summanden beim
  Ausmultiplizieren enthalten mindestens einen Faktor $u_i\in I$ und
  k\"onnen daher wie angegeben zusammengefasst werden. Es folgt $1\in
  J_1\cdot\ldots J_r+I$. \par
  Bei der Definition des Idealproduktes haben wir bereits bemerkt,
  dass f\"ur Ideale $K,L$ stets $KL\subset K\cap L$ gilt. Da wir
  sowohl beim Idealprodukt als auch beim Schnitt beliebig klammern
  d\"urfen folgt die letzte Behauptung per Induktion.
\end{proof}

\begin{theorem}[Chinesischer Restsatz]
  Sei $A$ ein Ring (kommutativ, nullteilerfrei und mit Eins). Seien
  $I_1,\ldots,I_n$ paarweise relativ prime Ideale von $A$. Dann ist  
  \begin{align*}
    \phi\colon A\to&\,A/I_1\times\ldots\times A/I_n,\\
    \phi(x)=&\,(x+I_1,\ldots,x+I_n)
  \end{align*}
  surjektiv. F\"ur beliebige $a_1,\ldots,a_n\in A$ gibt es also eine
  simultane L\"osung der Kongruenzen in Bemerkung \ref{sim kongr
    rem}. 
\end{theorem}
\begin{proof}[Beweis]
  Sei zun\"achst $n=2$. Seien $a_1,a_2\in A$ beliebig vorgegeben. Wir
  suchen nun $x\in A$ mit $x\equiv a_i$ $(\modulo I_i)$ f\"ur
  $i=1,2$. Nach Voraussetzung gibt es $b_1\in I_1$ und $b_2\in I_2$
  mit $b_1+b_2=1$. Setze $x:=a_1b_2+a_2b_1$. Da $b_1\in I_1$ ist folgt
  $x\equiv a_1b_2 \equiv a_1(b_2+b_1) \equiv a_1$ $(\modulo
  I_1)$. Ebenso erhalten wir $x\equiv a_2$ $(\modulo I_2)$. \par
  F\"ur $n>2$ f\"uhren wir den Beweis per Induktion. Seien
  $a_1,\ldots,a_n\in A$ beliebig. Nach Induktionsannahme d\"urfen wir
  annehmen, dass wir $n-1$ Kongruenzen bereits simultan l\"osen
  k\"onnen, dass also ein $y\in A$ mit $y\equiv a_i$ $(\modulo I_i)$
  f\"ur $i=2,\ldots,n$ existiert. Nach Proposition \ref{prop chin
    restsatz} d\"urfen wir den Fall $n=2$ auf die Ideale $I_1$ und
  $I_2\cap\ldots\cap I_n$ anwenden. Somit gibt es ein $x\in A$ mit
  $x\equiv a_1$ $(\modulo I_1)$ und $x\equiv y$ $(\modulo
  I_2\cap\ldots\cap I_n)$. Daraus folgt $x\equiv y\equiv a_i$
  $(\modulo I_i)$ f\"ur $i=2,\ldots,n$ und damit die Behauptung.
\end{proof}

\begin{corollary}
  \label{chin restsatz cor}
  Sei $A$ ein Ring (kommutativ, nullteilerfrei und mit Eins). Seien
  $I_1,\ldots,I_n$ paarweise teilerfremde Ideale von $A$. Dann ist die
  Abbildung
  \begin{align*}
    A/(I_1\cap\ldots\cap
    I_n)\overset\sim\longrightarrow&\,(A/I_1)\times
    \ldots\times(A/I_n)\umbruch
    \intertext{mit}
    a+I_1\cap\ldots\cap I_n\mapsto&\,(a+I_1,\ldots,a+I_n)
  \end{align*}
  ein Ringisomorphismus. 
\end{corollary}
\begin{proof}[Beweis]
  Aufgrund des chinesischen Restsatzes ist die Abbildung
  surjektiv. Nach Herausdividieren des Kernes erhalten wir aufgrund
  des Homomorphiesatzes einen Isomorphismus.   
\end{proof}

\begin{remark}[Konstruktive L\"osung]
  Sei $A$ ein euklidischer Ring. Seien $a_i,b_i\in A$, $i=1,\ldots,n$,
  und seien die Ideale $(b_i)$ paarweise relativ prim. Wir wollen die
  simultanen Kongruenzen 
  \begin{equation}
    \label{sim kongr eq}
    x\equiv a_i\quad(\modulo b_i) \quad
    \text{f\"ur }i=1,\ldots,n
  \end{equation}
  l\"osen. Definiere \[c_i:=b_1\cdot\ldots\cdot b_{i-1}\cdot
  b_{i+1}\cdot\ldots\cdot b_n,\quad i=1,\ldots,n.\] Nach Proposition
  \ref{prop chin restsatz} gilt $I_i+I_1\cdot\ldots\cdot I_{i-1}\cdot
  I_{i+1}\cdot\ldots\cdot I_n=A$. Wegen $I_1\cdot\ldots\cdot
  I_{i-1}\cdot I_{i+1}\cdot\ldots\cdot I_n = (b_1\cdot\ldots\cdot
  b_{i-1}\cdot b_{i+1}\cdot\ldots\cdot b_n) =(c_i)$ folgt also
  $(b_i,c_i)=A$. Somit gibt es $u_i,v_i\in A$, die man mit dem
  euklidischen Algorithmus bestimmen kann, so dass $u_ib_i+v_ic_i=1$
  f\"ur $i=1,\ldots,n$ gilt. Insbesondere folgt f\"ur $i\neq j$
  nach Definition von $c_j$ \[c_iv_i\equiv1\quad(\modulo
  b_i) \quad\text{und}\quad c_iv_i\equiv0\quad(\modulo b_j).\] Somit ist
  \[x_0:=\sum\limits_{i=1}^n a_ic_iv_i\] eine L\"osung der simultanen
  Kongruenzen \eqref{sim kongr eq}. \par Nach Voraussetzung sind die
  Ideale $(b_i)$ paarweise relativ prim zueinander. Somit ist
  $\ggT(b_i,b_j)\sim1$ f\"ur $i\neq j$, nach Wahl eines
  Vertretersystems von irreduziblen Elementen von $A$ taucht also kein
  irreduzibler Faktor in der Produktdarstellung wie in Korollar
  \ref{prod irred darst thm} f\"ur $i\neq j$ sowohl bei $b_i$ als auch
  bei $b_j$ auf: $v_{p}(b_i)\cdot v_{p}(b_j)=0$ f\"ur alle Vertreter
  $p$ und alle $i\neq j$. Somit ist der Kern der zu den simultanen
  Kongruenzen \eqref{sim kongr eq} geh\"origen Abbildung durch
  $(b_1\cdot\ldots\cdot b_n)$ gegeben. Eine beliebige L\"osung von
  \eqref{sim kongr eq} liegt also in der Menge $x_0
  +(b_1\cdot\ldots\cdot b_n)$.
\end{remark}

\begin{beispiel}
  Sei $A=\Z$.  Wir hatten bereits gesehen, dass $\ggT(91,17)=1$ und
  $1=3\cdot91-16\cdot17$ gelten. Seien $a,b\in\Z$ beliebig. Wir wollen
  die simultanen Kongruenzen 
  \begin{align*}
    x\equiv&\,a\quad(\modulo 91),\umbruch\\
    x\equiv&\,b\quad(\modulo 17)
  \end{align*}
  l\"osen. Da wir nur zwei Kongruenzen haben, brauchen wir die $c_i$'s
  nicht extra zu berechnen. Aus der Linearkombination der Eins folgt
  \begin{align*}
    3\cdot91\equiv&\,1\quad(\modulo 17),& -16\cdot17\equiv1\quad(\modulo
    91),\umbruch\\ 
    3\cdot91\equiv&\,0\quad(\modulo 91),& -16\cdot17\equiv0\quad(\modulo
    17). 
  \end{align*}
  Daraus lesen wir direkt ab, dass
  $x\in b\cdot3\cdot91-a\cdot16\cdot17+17\cdot91\,\Z
  =-a\cdot272+b\cdot 273+1547\,\Z$ die allgemeine L\"osung ist. 
\end{beispiel}

\Subsection{Elementarteilersatz f\"ur Matrizen}

\begin{remark}
  Sei $A$ ein Hauptidealring. Seien $a^i_j\in A$ sowie $u^i\in A$
  f\"ur $i=1,\ldots,m$, $j=1,\ldots,n$. Betrachte das lineare
  Gleichungssystem
  \[\sum\limits_{j=1}^na^i_jx^j=u^i,\quad i=1,\ldots,m.\] Wir suchen
  L\"osungen $x=\left(x^j\right)_{1\le i\le n}$ aller $m$ Gleichungen
  mit $x^j\in A$, $1\le j\le n$.\par
  Im Spezialfall $m=1$ haben wir die Gleichung
  $\sum\limits_{j=1}^na_jx^j=u$. Hier haben wir eine genaue Bedingung
  f\"ur die L\"osbarkeit: Gilt $\ggT(a_1,\ldots,a_n)|u$, so ist die
  Gleichung l\"osbar.
  \begin{proof}[Beweis]
    \neueZeilealt \Hinrichtung Gelte $\ggT(a_1,\ldots,a_n)|u$. Dann
    stellen wir den gr\"o\ss{}ten gemeinsamen Teiler (z.\,B. mit Hilfe
    des euklidischen Algorithmusses) als Linearkombination der $a_i$,
    $i=1,\ldots,n$, dar. Nach Multiplikation $c$, so dass
    $c\cdot\ggT(a_1,\ldots,a_n)=u$ gilt erhalten wir die gesuchte
    L\"osung. \par
    \Rueckrichtung Da $A$ ein Hauptidealring ist, k\"onnen wir jedes
    Element als Produkt einer Einheit mit irreduziblen Elementen
    darstellen. Gilt $\ggT(a_1,\ldots,a_n)\nmid u$, so enth\"alt
    $\ggT(a_1,\ldots,a_n)$ einen irreduziblen Faktor zu einer Potenz,
    der nur zu einer strikt kleineren Potenz in $u$ auf"|taucht. Daher
    k\"onnen wir die Gleichung nicht l\"osen.
  \end{proof}
  Wie bei linearen Gleichungssystemen \"uber K\"orpern schreiben wir
  auch lineare Gleichungssysteme \"uber Ringen in Matrixform: $Tx=u$
  mit $T=\left(a^j_i\right)_{\genfrac{}{}{0pt}{}{1\le j\le m}{1\le
      i\le n}}$, $a^j_i\in A$, $x=\left(x^i\right)_{1\le i\le n}$,
  $x^i\in A$, $u=\left(u^j\right)_{1\le j\le m}$. Dabei verwenden wir
  dieselbe Matrixmultiplikation wie f\"ur Matrizen \"uber K\"orpern
  und schreiben $T\in A^{m\times n}\equiv M_{m\times n}(A)$, $x\in
  A^n$, $u\in A^m$. 
\end{remark}

\begin{remark}[Erinnerung]
  Sei $A$ ein Ring, $T=\left(a^j_i\right)_{1\le i,j\le n}\in
  A^{n\times n}$. Definiere $b^i_j:=(-1)^{i+j}\cdot\det A^j_i$ und
  $B=\left(b^i_j\right)_{1\le i,j\le n}$, wobei
  $\left(A^j_i\right)_{1\le i,j\le n}$ die Matrix ist, die man aus
  $\left(a^j_i\right)_{i,j}$ erh\"alt, wenn man die $j$-te Zeile und
  die $i$-te Spalte streicht. Dann gilt (Folgerung aus dem
  Entwicklungssatz von Laplace) \[T\cdot B=\det T\cdot\eins.\] Der
  Beweis funktioniert genauso wie \"uber K\"orpern.  Schreibweise:
  $B=T^{adj}$ oder $B=T^\sharp$.  Somit ist eine Matrix $T\in
  A^{n\times n}$ genau dann invertierbar, wenn $\det T\in A^*$ gilt.
  \begin{proof}[Beweis]
    \neueZeilealt \Hinrichtung Sei $T$ invertierbar. Dann gibt es eine
    Matrix $C\in A^{n\times n}$ mit $TC=\eins$. Somit gilt $\det
    T\cdot\det C=1$.  Also ist $\det T\in A^*$. \par
    \Rueckrichtung Sei umgekehrt $\det T\in A^*$. Dann besitzt $\det
    T$ ein Inverses in $A$ und wir definieren mit $B$ wie oben
    $C:=(\det T)^{-1}\cdot B$. Die Folgerung aus dem Entwicklungssatz
    von Laplace liefert, dass $C$ die Inverse zu $T$ ist.
  \end{proof}
  Aufgrund des Determinantenmultiplikationssatzes bilden die
  invertierbaren Matrizen in $A^{n\times n}$ eine Gruppe. 
\end{remark}

\begin{remark}[Elementare Umformungen]
  Sei $A$ ein Ring.  Sei $T\in A^{m\times n}$. Betrachte die folgenden
  elementaren Umformungen f\"ur $T$:
  \begin{enumerate}[(i)]
  \item Addiere $a$-mal die $j$-te Zeile zur $i$-ten Zeile, $i\neq j$,
    $a\in A$.
  \item Vertausche die Zeilen $i$ und $j$, $i\neq j$. 
  \item Addiere $a$-mal die $l$-te Spalte zur $k$-ten Spalte, $k\neq
    l$, $a\in A$. 
  \item Vertausche die Spalten $k$ und $l$, $k\neq l$.  
  \end{enumerate}
  Genauso wie bei Matrizen \"uber K\"orpern k\"onnen wir diese
  elementaren Umformungen wie folgt mit Hilfe von Matrizen darstellen:
  \begin{enumerate}
  \item $T\mapsto (\eins+a E_{ij})T$,
  \item $T\mapsto \Pi_{ij}T$,
  \item $T\mapsto T(\eins+a E_{kl})$,
  \item $T\mapsto T\Pi_{kl}$, 
  \end{enumerate}
  wobei $A^{n\times n}\ni E_{ij}=\left(a^k_l\right)_{1\le k,l\le n}$
  mit $a^k_l=\delta^k_i\delta_{lj}$ (eine Matrix mit nur einer Eins in
  Zeile $i$ und Spalte $j$, sonst Nullen) und $A^{n\times n}\ni\Pi_{ij}
  =\left(a^k_l\right)_{1\le k,l\le n}$ mit \[a^k_l=
  \begin{cases}
    1,&\text{f\"ur }k,l\in\{i,j\}\text{ und }k\neq l,\\
    0,&\text{f\"ur }k,l\in\{i,j\}\text{ und }k=l,\\
    \delta^k_l,&\text{sonst.}
  \end{cases}\] (eine Diagonalmatrix, bei der die Eintr\"age mit
  $k,l\in\{i,j\}$ jedoch zu $\left(\begin{smallmatrix} 0&1\\ 1&0
    \end{smallmatrix}\right)$ abge\"andert sind) gelten. F\"ur
  Matrizen auf der linken Seite verwenden wir dieselben Definitionen,
  erlauben jedoch Indices bis $m$. 
\end{remark}

\begin{theorem}[Elementarteilersatz]
  \label{elementarteilersatz thm}
  \neueZeilealt
  Sei $A$ ein euklidischer Ring. Sei $T\in A^{m\times n}$. Dann gibt
  es endlich viele elementare Umformungen, die $T$ in die Blockgestalt
  \[\left(
    \begin{array}{c|ccc}
      \begin{matrix}
        d_1&&0\\
        &\ddots&\\
        0&&d_r
      \end{matrix}
      &&0&\\\hline
      &&&\\
      0&&0&\\
      &&&
    \end{array}\right)\]
  mit $0\le r\le\min\{m,n\}$ und $d_i\in A$ sowie
  $d_1|d_2|\ldots|d_r$ mit $d_i\neq0$ bringen.\par
  Sei $T=\left(a^j_i\right)_{\genfrac{}{}{0pt}{}{1\le j\le m}{1\le
      i\le n}}$. Ist $T\neq0$, so gilt
  \[d_1\sim\ggT\left(\left\{a^j_i\colon 1\le j\le m,\,1\le i\le
      n\right\}\right)\equiv\ggT(T).\]
\end{theorem}
\begin{proof}[Beweis]
  Dies folgt per Induktion unmittelbar aus den folgenden beiden
  Aussagen:
  \begin{enumerate}[(i)]
  \item $\ggT(T)$ \"andert sich nicht, wenn wir elementare Zeilen- und
    Spaltenumformungen auf $T$ anwenden.
  \item Durch elementare Umformungen k\"onnen wir $T$ in die Gestalt 
    \[
    \begin{pmatrix}
      d_1& (0)\\
      (0) &\tilde T
    \end{pmatrix}
    \] 
    bringen, so dass $d_1\sim\ggT(T)$ gilt und $d_1$ s\"amtliche
    Eintr\"age von $\tilde T$ teilt. 
  \end{enumerate}
  Wir zeigen diese beiden Behauptungen separat:
  \begin{enumerate}[(i)]
  \item Seien $U\in A^{m\times m}$ und $V\in A^{n\times n}$
    invertierbar, also $U\in \GL_m(A)$ und $V\in \GL_n(A)$. 
    Teilt ein $a\in A$ s\"amtliche Eintr\"age in $T$, so auch in
    $UTV$: Beim Berechnen des Matrixproduktes $UTV$ erhalten wir in
    jedem Eintrag eine Summe von Produkten. In jedem dieser Produkte
    steht aber ein Eintrag aus $T$. Also gilt
    $\ggT(T)|\ggT(UTV)$. Wenden wir dasselbe Argument mit $U^{-1}$
    statt $U$ und $V^{-1}$ statt $V$ an, so folgt $\ggT(T)\sim
    \ggT(UTV)$. Insbesondere \"andert sich $\ggT(T)$ also nicht, wenn
    wir $T$ durch elementare Umformungen ver\"andern. 
  \item Sei $\delta$ die Gradfunktion des euklidischen Ringes $A$.
    Durch Vertauschen von Zeilen und Spalten k\"onnen wir ohne
    Einschr\"ankung annehmen, dass $\delta\left(a^1_1\right)=
    \min\left\{\delta\left(a^i_j\right)\colon a^i_j\neq0,\,1\le i\le
      m,\,1\le j\le n\right\}=:\delta(T)$ gilt. Wir argumentieren per
    Induktion nach diesem Minimalwert $\delta(T)$ und wollen
    $\delta(T)$ durch elementare Umformungen verkleinern.\par
    Sei zun\"achst $\delta\left(a^1_1\right)=0$. Damit ist jedes
    Element $a\in A$ ohne Rest durch $a^1_1$ teilbar. Insbesondere
    k\"onnen wir also durch elementare Zeilenumformungen erreichen,
    dass die Eintr\"age in der ersten Spalte (au\ss{}er ganz oben)
    Null werden. Ebenso k\"onnen wir durch elementare
    Spaltenumformungen erreichen, dass s\"amtliche Eintr\"age der
    ersten Zeile (au\ss{}er ganz links) Null werden. \par Sei nun
    $\delta(T)\ge1$.
    \begin{enumerate}
    \item Gilt $a^1_1\nmid a^i_1$ f\"ur ein $i\ge2$. Division mit Rest
      liefert \[a^i_1=qa^1_1+r\quad\text{mit }r\neq0 \text{ und }
      \delta(r)<\delta\left(a^1_1\right)=\delta(T).\] Subtrahieren wir
      $q$-mal die erste Zeile von der $i$-ten Zeile, so erhalten wir
      eine Matrix $\tilde T$ mit $\delta\left(\tilde
        a^i_1\right)<\delta\left(a^1_1\right)=\delta(T)$. Per
      Induktion sind wir damit fertig. \par
      Falls aber $a^1_1|a^i_1$ f\"ur alle $i\ge2$ gilt, so k\"onnen
      wir durch elementare Zeilenumformungen in der ersten Spalte
      (au\ss{}er ganz oben) lauter Nullen erzeugen. 
    \item Wie gerade eben wenden wir nun Spaltenumformungen an und
      erhalten (au\ss{}er ganz links) lauter Nullen in der ersten
      Zeile. 
    \item Klar ist, dass f\"ur die neue Matrix $\ggT(T)|a^1_1$ gilt,
      wobei wir wieder die Bezeichnungen $T$ und $a^i_j$
      verwenden. Ist $a^1_1\not\sim\ggT(T)$, so gibt es ein Element
      $a^p_q$, $2\le p,q$, mit $a^1_1\nmid a^p_q$. Addieren wir nun
      Spalte $q$ zur Spalte $1$, so k\"onnen wir mit dem ersten
      Schritt die Matrix mit elementaren Umformungen so \"andern, dass
      $\delta(T)$ strikt kleiner wird. 
    \end{enumerate}
    Der Beweis der zweiten Behauptung vereinfacht sich, wenn bereits
    irgendwo in der Matrix ein Element steht, das ein gr\"o\ss{}ter
    gemeinsamer Teiler von $T$ ist; ebenso wenn solch ein Element
    leicht durch elementare Zeilen- und Spaltenumformungen erzeugt
    werden kann. Dann bringt man dieses nach links oben und addiert
    Vielfache der ersten Zeile/Spalte, so dass in der ersten Zeile und
    Spalte au\ss{}er ganz links oben nur Nullen stehen. \qedhere
  \end{enumerate}
\end{proof}

\begin{remark}
  Da $T\in A^{n\times m}$ durch endlich viele elementare Umformungen
  in die angegebene Gestalt gebracht werden kann gibt es $U\in
  \GL_n(A)$ und $V\in \GL_m(A)$, so dass $UTV$ wie angegeben aussieht. 
\end{remark}

\begin{remark}
  F\"ur den Beweis in dem Fall, dass $A$ lediglich ein Hauptidealring
  und kein euklidischer Ring ist siehe \cite{BroeckerLA}. 
\end{remark}

\begin{definition}
  Die Elemente $d_1,\ldots,d_r$ aus dem Elementarteilersatz hei\ss{}en
  Elementarteiler von $T$. 
\end{definition}

\begin{beispiel}
  Sei nun $A=\Z$. Wir wollen die Matrix \[T=
  \begin{pmatrix}
    -17 & 14 & 39 \\
    -8 & 6 & 21
  \end{pmatrix}\] in die Form aus dem Elementarteilersatz, also in
  Elementarteilerform, bringen. \par
  Wir sind in der gl\"ucklichen Lage, dass $\ggT(T)=1$ gilt und wir
  eine Linearkombination aus den Elementen der ersten Spalte
  $-17+(-2)\cdot(-8)=-1$ leicht sehen. Wir addieren also
  $(-2)$-mal die zweite Zeile mit Hilfe von $\left(
  \begin{smallmatrix}
    1 & -2\\ 0 & 1
  \end{smallmatrix}\right)$ zur ersten und Multiplizieren die gesamte
  Matrix mit $-1$.
  \[
  \begin{pmatrix}
    -1 & 2\\ 0 & -1
  \end{pmatrix}
  \begin{pmatrix}
    -17 & 14 & 39 \\
    -8 & 6 & 21
  \end{pmatrix}
  =
  \begin{pmatrix}
    1 & -2 & 3 \\
    8 & -6 & -21
  \end{pmatrix}. 
  \]
  Nun addieren wir die erste Spalte, multipliziert mit $2$ bzw.{}
  $(-3)$, zur zweiten und dritten Spalte und erhalten 
  \begin{align*}
    &\,
    \begin{pmatrix}
      -1 & 2\\ 0 & -1
    \end{pmatrix}
    \begin{pmatrix}
      -17 & 14 & 39 \\
      -8 & 6 & 21
    \end{pmatrix}
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      1 & -2 & 3 \\
      8 & -6 & -21
    \end{pmatrix}. 
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}
    =
    \begin{pmatrix}
      1 & 0 & 0 \\
      8 & 10 & -45
    \end{pmatrix}. 
  \end{align*}
  Nun subtrahieren wir die erste Zeile (mit $8$ multipliziert) von der
  zweiten. Der Zwischenschritt in der zweiten Zeile dient nur dazu,
  die Transformationsmatrizen auf der linken Seite von $T$
  zusammenzufassen.
  \begin{align*}
    &\,
    \begin{pmatrix}
      1 & 0 \\
      -8 & 1
    \end{pmatrix}
    \begin{pmatrix}
      -1 & 2\\ 0 & -1
    \end{pmatrix}
    \begin{pmatrix}
      -17 & 14 & 39 \\
      -8 & 6 & 21
    \end{pmatrix}
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}\umbruch\\
    =&\,
    \begin{pmatrix}
      -1 & 2 \\
      8 & -17
    \end{pmatrix}
    \begin{pmatrix}
      -17 & 14 & 39 \\
      -8 & 6 & 21
    \end{pmatrix}
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}\umbruch\\
    =&\,
    \begin{pmatrix}
      1 & 0 \\
      -8 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      8 & 10 & -45
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 10 & -45
    \end{pmatrix}.
  \end{align*}
  Wegen $\ggT(10,-45)=5$ kombinieren wir die $5$ nun, indem wir
  zun\"achst die zweite Spalte (mit $5$ multipliziert) zur dritten
  addieren, dann die dritte Spalte von der zweiten (mit $2$
  multipliziert) subtrahieren und schlie\ss{}lich die zweite und die
  dritte Spalte vertauschen. Mit der Zwischenrechnung
  \begin{align*}
    &\,
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 1 & 5 \\
      0 & 0 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 1 & 0 \\
      0 & -2 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 0 & 1 \\
      0 & 1 & 0
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 1 & 5 \\
      0 & 0 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 0 & 1 \\
      0 & 1 & -2
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      1 & 2 & -3 \\
      0 & 1 & 0 \\
      0 & 0 & 1
    \end{pmatrix}
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 5 & -9 \\
      0 & 1 & -2
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      1 & 7 & -12 \\
      0 & 5 & -9 \\
      0 & 1 & -2
    \end{pmatrix}
  \end{align*}
  erhalten wir
  \begin{align*}
    &\,
    \begin{pmatrix}
      -1 & 2 \\
      8 & -17
    \end{pmatrix}
    \begin{pmatrix}
      -17 & 14 & 39 \\
      -8 & 6 & 21
    \end{pmatrix}
    \begin{pmatrix}
      1 & 7 & -12 \\
      0 & 5 & -9 \\
      0 & 1 & -2
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 5 & 0
    \end{pmatrix}.
  \end{align*}
  Beachte, dass wir nicht behaupten, dass die invertierbaren Matrizen
  in $\Z^{2\times 2}$ bzw.{} $\Z^{3\times 3}$ eindeutig bestimmt
  sind. Es gilt n\"amlich auch
  \begin{align*}
    &\,
    \begin{pmatrix}
      -1 & 2 \\
      2 & -3
    \end{pmatrix}
    \begin{pmatrix}
      -17 & 14 & 39 \\
      -8 & 6 & 21
    \end{pmatrix}
    \begin{pmatrix}
      -13 & 5 & 12 \\
      -10 & 4 & 9 \\
      -2 & 1 & 2
    \end{pmatrix}
    \umbruch\\
    =&\,
    \left(\begin{array}{rrr}
        1 & -2 & 3 \\
        -10 & 10 & 15
      \end{array}\right)
    \begin{pmatrix}
      -13 & 5 & 12 \\
      -10 & 4 & 9 \\
      -2 & 1 & 2
    \end{pmatrix}
    =
    \begin{pmatrix}
      1 & 0 & 0 \\
      0 & 5 & 0
    \end{pmatrix}.
  \end{align*}
  Man \"uberzeugt sich leicht anhand der Determinante, dass die
  jeweils \glqq\"au\ss{}eren\grqq{} Matrizen invertierbar sind, da sie
  eine Determinante in $\Z^*=\{\pm1\}$ besitzen. 
\end{beispiel}

\begin{remark}
  Sei $A$ ein euklidischer Ring.  Seien $T\in A^{n\times m}$ und $w\in
  A^n$ gegeben. Wenn wir $x\in A^m$ suchen, das das in Matrixform als
  $Tx=w$ geschriebene lineare Gleichungssystem l\"ost, so k\"onnen wir
  zun\"achst (wie im Elementarteilersatz) \"uber $A$ invertierbare
  Matrizen $U\in A^{n\times n}$ und $V\in A^{m\times m}$ bestimmen, so
  dass \[D:=UTV= \left(
    \begin{array}{c|ccc}
      \begin{matrix}
        d_1&&0\\
        &\ddots&\\
        0&&d_r
      \end{matrix}
      &&0&\\\hline
      &&&\\
      0&&0&\\
      &&&
    \end{array}\right)
  \] in Elementarteilerform ist. Dann ist $Tx=w$ \"aquivalent zu 
  \[Uw=UTx=UTVV^{-1}x =DV^{-1}x.\] Setze $\tilde w:=Uw$ und $\tilde
  x:=V^{-1}x$. Dann ist $\tilde w=D\tilde x$ ein Gleichungssystem, das
  man genau dann l\"osen kann, wenn 
  \begin{enumerate}[(i)]
  \item $d_i|\tilde w^i$ f\"ur alle Komponenten $\tilde w^i$ von
    $\tilde w$ mit $1\le i\le r$ und
  \item $\tilde w^i=0$ f\"ur alle $i>r$
  \end{enumerate}
  gelten. Ist das Gleichungssystem l\"osbar, so ist die allgemeine
  L\"osung durch \[\tilde x=\left(\frac{\tilde
      w^1}{d_1},\ldots,\frac{\tilde
      w^r}{d_r},u^{r+1},\ldots,u^m\right)^T\] f\"ur beliebige
  $u^{r+1},\ldots,u^m\in A$ gegeben. Im Falle $r=m$ ist die L\"osung
  eindeutig. Beachte schlie\ss{}lich noch, dass $x=V\tilde x$ gilt.
\end{remark}

\begin{beispiel}
  Sei $A=\Z$. Betrachte das lineare Gleichungssystem 
  \[
  \begin{matrix}
    -17 x^1 &+& 14 x^2 &+& 39 x^3 &=& w^1,\umbruch\\
    -8 x^1 &+& 6 x^2 &+& 21 x^3 &=& w^2. 
  \end{matrix}
  \]
  Ohne weitere Definition verwenden wir nun die obige Notation. \par
  Erinnerung: Es gilt 
  \[
  UTV=
  \begin{pmatrix}
    -1 & 2 \\
    8 & -17
  \end{pmatrix}
  \begin{pmatrix}
    -17 & 14 & 39 \\
    -8 & 6 & 21
  \end{pmatrix}
  \begin{pmatrix}
    1 & 7 & -12 \\
    0 & 5 & -9 \\
    0 & 1 & -2
  \end{pmatrix}
  =
  \begin{pmatrix}
    1 & 0 & 0 \\
    0 & 5 & 0
  \end{pmatrix}=D.
  \]
  Wir schreiben das lineare Gleichungssystem
  als \[\underbrace{UTV}_{=D} \underbrace{V^{-1}x}_{=\tilde
    x}=\underbrace{Uw}_{=\tilde w}.\] Wir m\"ochten also \[
  \begin{pmatrix}
    1&0&0\\ 0&5&0
  \end{pmatrix}
  \begin{pmatrix}
    \tilde x^1\\
    \tilde x^2\\
    \tilde x^3
  \end{pmatrix}
  =
  \begin{pmatrix}
    -w^1+2w^2\\
    8w^1-17w^2
  \end{pmatrix}
  \]
  l\"osen. Dies ist genau dann l\"osbar, falls $5|(8w^1-17w^2)$ oder
  $8w^1\equiv 17w^2$ $(\modulo 5)$ gilt. Die allgemeine L\"osung lautet
  in diesem Fall 
  \[\tilde x=
  \begin{pmatrix}
    -w^1+2w^2\\
    \frac15\left(8w^1-17w^2\right)\\
    n
  \end{pmatrix}
  \]
  bzw.
  \begin{align*}
    x=&\,V\tilde x=
    \begin{pmatrix}
      1&7&-12\\
      0&5&9\\
      0&1&-2
    \end{pmatrix}
    \begin{pmatrix}
      -w^1+2w^2\\
      \frac15\left(8w^1-17w^2\right)\\
      n
    \end{pmatrix}
    \umbruch\\
    =&\,
    \begin{pmatrix}
      -w^1+2w^2+\frac75\left(8w^1-17w^2\right)-12n\\
      8w^1-17w^2+9n\\
      \frac15\left(8w^1-17w^2\right)-2n
    \end{pmatrix},
  \end{align*}
  wobei $n\in\Z$ beliebig ist und $\frac15 a$ als die Zahl in $\Z$ zu
  verstehen ist, die nach Multiplikation mit $5$ gerade $a$ ergibt. 
\end{beispiel}

Nachdem wir Moduln betrachtet haben werden werden wir noch einen
Elementarteilersatz f\"ur Moduln kennen lernen.

\Section{Moduln}

\Subsection{Moduln}
Moduln \"uber Ringen verallgemeinern den Begriff eines Vektorraumes
\"uber einem K\"orper.

Sei $A$ in diesem Kapitel stets ein kommutativer Ring mit Eins.

\begin{definition}
  Sei $A$ ein kommutativer Ring mit Eins. Ein $A$-Modul ist eine
  abelsche Gruppe $(M,+)$ mit einer Abbildung $A\times M\to M$,
  $(a,x)\mapsto a\cdot x\equiv ax$ (Skalarmultiplikation), so dass die
  folgenden Eigenschaften f\"ur alle $a,b\in A$ und alle $x,y\in M$
  gelten:
  \begin{enumerate}[(i)]
  \item $a(bx)=(ab)x$, \hfill (Assoziativit\"at)
  \item $(a+b)x=ax+bx$, \hfill (Distributivgesetze)
  \item $a(x+y)=ax+ay$ und
  \item $1x=x$. 
  \end{enumerate}
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $A$ ein kommutativer Ring mit Eins. Dann ist $A$ ein
    $A$-Modul.
  \item Wie f\"ur Vektorr\"aume zeigt man, dass f\"ur alle $a\in A$
    und alle $x\in M$
    \begin{enumerate}
    \item $0\cdot x=0$,
    \item $a\cdot 0=0$ und
    \item $(-a)x=-(ax)=a(-x)$ gelten
    \end{enumerate}
    \begin{proof}[Beweis]
      \neueZeile
      \begin{enumerate}
      \item Es gilt $0=0+0$, somit folgt aus $0x=(0+0)x=0x+0x$ auch
        $0x=0$. 
      \item Analog.
      \item Es gelten $0=ax-(ax)$, $0=0x=(a-a)x=ax+(-a)x$ sowie
        $0=a(x-x)=ax+a(-x)$. Die rechten Seiten stimmen \"uberein. Wir
        subtrahieren \"uberall $ax$ und erhalten die
        Behauptung. \qedhere 
      \end{enumerate}
    \end{proof}
  \item Sei $n\in\N$. Dann ist $M=A^n$ mit den komponentenweisen
    Verkn\"upfungen
    \begin{align*}
      (x^1,\ldots,x^n)+(y^1,\ldots,y^n)
      :=&\,(x^1+y^1,\ldots,x^n+y^n)\umbruch 
      \intertext{und}
      a\cdot(x^1,\ldots,x^n):=&\,(ax^1,\ldots,ax^n)
    \end{align*}
    f\"ur $a,x^i,y^i\in A$, $1\le i\le n$, ein $A$-Modul.
  \item Ist $K$ ein K\"orper, so stimmen die Definition eines
    $K$-Moduls und eines $K$-Vektorraumes \"uberein. 
  \item Sei $M$ eine abelsche Gruppe. Dann wird $M$ durch die folgende
    Definition zu einem $\Z$-Modul: F\"ur $\Z\ni n\ge0$ und $x\in M$
    setzen wir $nx=\underbrace{x+\ldots+x}_{n\text{ Summanden}}$. Ist
    $\Z\ni n<0$, so setzen wir $nx:=-((-n)x)$. \par Es gibt nur eine
    M\"oglichkeit, eine abelsche Gruppe zu einem $\Z$-Modul zu machen:
    Da $1\cdot x=x$ f\"ur $x\in M$ nach Definition eines Moduls
    eindeutig bestimmt ist erhalten wir induktiv, dass
    $nx=(1+\ldots+1)x =1x+\ldots+1x =x+\ldots+x$ ebenfalls eindeutig
    bestimmt ist. Wegen $nx+(-n)x=0$ ist auch $(-n)x$ f\"ur $n\ge0$
    eindeutig bestimmt. Mit dieser Definition wird $M$ tats\"achlich
    ein $\Z$-Modul. \par Indem wir die Operation von $\Z$ auf der
    abelschen Gruppe eines Moduls vergessen ist jedes $\Z$-Modul
    nat\"urlich auch eine abelsche Gruppe.\par Somit stimmen abelsche
    Gruppen und $\Z$-Moduln \"uberein. 
  \end{enumerate}
\end{remark}

\begin{beispiel}
  Sei $K$ ein K\"orper, $V$ ein $K$-Vektorraum und
  $f\in\End(V)\equiv \End_K(V)$ fixiert. Wir wollen $V$ damit zu einem
  $K[t]$-Modul machen: Definiere f\"ur $p\in K[t]$, $v\in V$ die
  Skalarmultiplikation durch $p\cdot v:=p(f)(v)$, \dh f\"ur
  $p=\sum\limits_{i=0}^da_it^i$, $a_i\in K$, durch
  \[\left(\sum\limits_{i=0}^d a_it^i\right)\cdot v
  :=\sum\limits_{i=0}^d a_if^i(v).\] Bezeichnung: Mit dieser
  Skalarmultiplikation schreiben wir f\"ur diesen $K[t]$-Modul
  $V_f$. \par Wir behaupten, dass jeder $K[t]$-Modul von dieser Form
  ist: Sei n\"amlich $M$ ein beliebiger $K[t]$-Modul. Wir k\"onnen die
  Skalarmultiplikation $K[t]\times M\to M$ verm\"oge $K\subset K[t]$
  auf $K\times M$ einschr\"anken. Dann ist $M$ mit der
  eingeschr\"ankten Skalarmultiplikation ein Vektorraum. Definiere
  eine Abbildung $f\colon M\to M$ durch $f(v):=tv$ f\"ur beliebiges
  $v\in M$. Dies ist eine $K$-lineare Abbildung, also gilt
  $f\in\End_K(M)$. Betrachte nun $M_f$, den wie oben im Falle $V_f$
  definierten Modul. Dann ist $M_f$ gerade der $K[t]$-Modul $M$.\par
  Daher k\"onnen wir alternativ $K[t]$-Moduln oder Paare $(V,f)$ mit
  einem $K$-Vek\-tor\-raum $V$ und $f\in\End_K(V)$ betrachten. Wir
  untersuchen damit letztlich das Gleiche. 
\end{beispiel}

\begin{definition}
  Seien $M$, $N$ zwei $A$-Moduln. Dann hei\ss{}t eine Abbildung
  \[f\colon M\to N\] eine $(A-)$lineare Abbildung oder ein
  Homomorphismus von $A$-Moduln, falls
  \begin{enumerate}[(i)]
  \item $f(x+y)=f(x)+f(y)$ und
  \item $f(ax)=af(x)$ 
  \end{enumerate}
  f\"ur alle $a\in A$ und alle $x,y\in M$ gelten. \par Ein
  Homomorphismus $f$ von $A$-Moduln hei\ss{}t Isomorphismus, falls $f$
  bijektiv ist. (Ist $f$ ein Isomorphismus, so ist $f^{-1}$ ebenfalls
  linear.) \par Zwei $A$-Moduln $M$ und $N$ hei\ss{}en isomorph, falls
  es einen Isomorphismus $f\colon M\to N$ gibt. 
\end{definition}

\begin{beispiel}
  Sei $T\in A^{m\times n}$. Dann ist die Abbildung $f\colon A^n\to
  A^m$ mit $x\mapsto Tx$ linear.\par Ist umgekehrt $f\colon A^n\to
  A^m$ linear, so gibt es ein $T\in A^{m\times n}$ mit $f(x)=Tx$. Dies
  zeigt man analog zur Aussage f\"ur Vektorr\"aume ausgehend von den
  Bildern $f(0,\ldots,0,1,0,\ldots,0)\in A^m$ f\"ur alle Positionen
  der Eins. 
\end{beispiel}

Der folgende Satz charakterisiert die $K[t]$-linearen Abbildungen
zwischen $K[t]$-Moduln.
\begin{theorem}\label{char Kt lin abb thm}
  Sei $K$ ein K\"orper.  Seien $(V,f)$, $(W,g)$ Paare von
  $K$-Vek\-tor\-r\"au\-men und Endomorphismen $f\in\End_K(V)$ und
  $g\in\End_K(W)$. Dann sind die $K[t]$-linearen Abbildungen
  $\phi\colon V_f\to W_g$ genau die $K$-linearen Abbildungen
  $\phi\colon V\to W$ mit $\phi\circ f=g\circ\phi$.
\end{theorem}
\begin{proof}[Beweis]
  \neueZeilealt \Hinrichtung Sei $\phi\colon V_f\to W_g$ eine
  $K[t]$-lineare Abbildung. Dann ist $\phi\colon V\to W$ insbesondere
  eine $K$-lineare Abbildung. (Beachte, dass die dem Vektorraum $V$
  und dem Modul $V_f$ zugrunde liegenden Mengen \"ubereinstimmen.)
  F\"ur $v\in V$ gilt \[\phi(f(v)) =\phi(tv) =t\phi(v)=g(\phi(v))\]
  aufgrund der Definition von $V_f$ bzw.{} $W_g$ und der
  $K[t]$-Linearit\"at. Somit folgt $\phi\circ f=g\circ\phi$. \par
  \Rueckrichtung Sei nun $\phi\colon V\to W$ eine $K$-lineare
  Abbildung mit $\phi\circ f=g\circ\phi$. Somit folgt nach Definition
  von $V_f$ und $W_g$, dass $\phi(tv)=t\phi(v)$ f\"ur alle $v\in V$
  gilt. Wir erhalten per Induktion $\phi\circ f^n=g^n\circ\phi$ und
  somit $\phi(t^nv)=t^n\phi(v)$ f\"ur alle $n\ge0$.  Somit ist $\phi$
  eine $K[t]$-lineare Abbildung.
\end{proof}

Statt Matrizen in \"Ahnlichkeitsklassen einzuteilen k\"onnen wir auch
$K[t]$-Moduln in Isomorphieklassen einteilen. Dies ist im folgenden
Sinne \"aquivalent:
\begin{theorem}
  Sei $K$ ein K\"orper, $V=K^n$. Seien $A,B\in K^{n\times n}$ und
  $V_A$, $V_B$ die $K[t]$-Moduln zu den Paaren $(V,x\mapsto Ax)$ und
  $(V,x\mapsto Bx)$. Dann sind die folgenden beiden Aussagen
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item $A$ und $B$ sind \"ahnliche Matrizen.
  \item $V_A$ und $V_B$ sind isomorphe $K[t]$-Moduln. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  In Theorem \ref{char Kt lin abb thm} haben wir gesehen, dass
  $K[t]$-lineare Abbildungen durch $K$-lineare Abbildungen gegeben
  sind, so dass $\phi\circ f=g\circ\phi$ gilt. Stellen wir $K$-lineare
  Abbildungen \"uber $V$ als Matrizen dar, so sind $K[t]$-lineare
  Abbildungen $V_A\to V_B$ durch Matrizen $S\in\End_K(V)$ mit $BS=SA$
  gegeben. Somit entsprechen $K[t]$-lineare Isomorphismen $V_A\to V_B$
  gerade Matrizen $S\in \GL_n(K)$ mit $BS=SA$. Also gilt
  $B=SAS^{-1}$. Somit sind $A$ und $B$ \"ahnliche Matrizen. Die
  Argumentation funktioniert in beide Richtungen. Somit folgt die
  Behauptung.
\end{proof}

\begin{definition}[Untermodul]
  Sei $M$ ein $A$-Modul. Dann hei\ss{}t eine Teilmenge $U\subset M$
  ein $(A-)$Untermodul von $M$, wenn $U$ eine Untergruppe der
  abelschen Gruppe $(M,+)$ ist, die unter Skalarmultiplikation
  abgeschlossen ist: F\"ur alle $a\in A$ und $u\in U$ gilt $au\in U$.    
\end{definition}

\begin{beispiel}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $M=A$ ein kommutativer Ring, aufgefasst als
    $A$-Modul. Dann sind die Untermodule von $M$ genau die Ideale von
    $A$.
  \item Sei $M$ eine abelsche Gruppe. Betrachte $M$ als
    $\Z$-Modul. Dann sind die Untermoduln von $M$ genau die
    Untergruppen von $M$ als abelsche Gruppe.
  \item Sei $V$ ein $K$-Vektorraum und $f\in\End_K(V)$. Dann sind die
    Untermoduln des $K[t]$-Moduls $V_f$ genau die $f$-invarianten
    Unterr\"aume $U$ von $V$, also die Untervektorr\"aume $U\subset V$
    mit $f(U)\subset U$. Solch ein Untermodul ist (isomorph zu)
    $U_{f|_U}$. (Leichte \"Ubung)
  \item Sei $U$ ein Untermodul eines $A$-Moduls $M$. Dann ist $U$ mit
    den auf $U$ induzierten Verkn\"upfungen selbst wieder ein
    $A$-Modul. 
  \item Seien $M,N$ zwei $A$-Moduln. Sei $f\colon M\to N$ eine
    $A$-lineare Abbildung. Dann ist
    \begin{align*}
      \ker f=\{x\in M\colon f(x)=0\}
      \intertext{ein Untermodul von $M$ und}
      \im f=\{f(x)\colon x\in M\}
    \end{align*}
    ein Untermodul von $N$. \par
    Beweis: Wie bei Vektorr\"aumen. 
  \item Seien $(U_\lambda)_{\lambda\in\Lambda}$, $\Lambda$ eine
    beliebige Indexmenge, Untermoduln von $M$. Dann sind auch
    $\bigcap\limits_{\lambda\in\Lambda} U_\lambda$
    und \[\sum\limits_{\lambda\in\Lambda}
    U_\lambda:=\left\{\sum\limits_{\lambda\in\Lambda}u_\lambda\colon
      u_\lambda\in U_\lambda\text{ mit }u_\lambda=0\text{ f\"ur fast
        alle }\lambda\in\Lambda\right\}\] Untermoduln von $M$. \par
    Beweis: Standard.
  \end{enumerate}
\end{beispiel}

\begin{definition}[Quotientenmodul]
  Sei $M$ ein $A$-Modul und $U\subset M$ ein Untermodul von $M$. Dann
  definieren wir den Quotientenmodul (oder Faktormodul) $M/U$ durch
  die \"Aquivalenzrelation \[x\equiv y\quad(\modulo U)\quad:
  \Longleftrightarrow\quad x-y\in U.\]  (Da $U$ ein Untermodul ist
  sieht man leicht, dass dies eine \"Aquivalenzrelation ist.) Wir
  bezeichnen die \"Aquivalenzklasse von $x\in M$ mit $x+U=\{x+u\colon
  u\in U\}$. Setze nun $M/U:=\{x+U\colon x\in M\}$. $M/U$ besteht also
  aus allen \"Aquivalenzklassen der obigen \"Aquivalenzrelation. \par
  Auf $M/U$ definieren wir Verkn\"upfungen durch
  \begin{align*}
    (x+U)+(y+U):=&\,(x+y)+U\umbruch
    \intertext{und}
    a(x+U):=&\,(ax)+U
  \end{align*}
  f\"ur $x,y\in M$ und $a\in A$. Da $U$ ein Untermodul von $M$ ist,
  sind diese Verkn\"upfungen wohldefiniert.   
\end{definition}

\begin{remark}
  Sei $M$ ein $A$-Modul und $U\subset M$ ein Untermodul von $M$. 
  Dann ist die Abbildung 
  \begin{align*}
    \pi\colon M\to&\,M/U,\umbruch\\
    x\mapsto&\,x+U
  \end{align*}
  $A$-linear und surjektiv. \par
  Beweis: Einfach. 
\end{remark}

Es gilt der folgende Homomorphiesatz:
\begin{theorem}[Homomorphiesatz f\"ur Moduln]
  \label{hom mod thm}
  Sei $A$ ein kommutativer Ring. Seien $M,N$ zwei $A$-Moduln.  Sei
  $f\colon M\to N$ eine $A$-lineare Abbildung.  Sei $U\subset M$ ein
  $A$-Untermodul. Genau dann, wenn $U\subset\ker f$ gilt, gibt es eine
  $A$-lineare Abbildung $\bar f\colon M/U\to \im f$ mit $f=i\circ\bar
  f\circ\pi$, wobei $\pi\colon M\to M/U$ die Projektion $x\mapsto x+U$
  und $i\colon\im f\to N$ die Inklusionsabbildung ist. Existiert solch
  eine Abbildung $\bar f$, so ist sie eindeutig bestimmt und es gilt
  $\ker\bar f=(\ker f)/U$ sowie $i(\im\bar f)=\im f$. Existiert $\bar
  f$, so kommutiert das Diagramm
  \[\xymatrix{M\ar[rrr]^-f\ar[dr]_-\pi&&&N.\\
    &M/U\ar[r]^-{\bar f}&\im f\ar[ur]_-i&}\]
  Ist $U=\ker f$, so ist $\bar f$ ein Isomorphismus.  Ist $f$
  surjektiv, so gilt $N\cong M/\ker f$.
\end{theorem}
\begin{proof}[Beweis]
  Analog zum Homomorphiesatz f\"ur Vektorr\"aume oder Ringe. 
\end{proof}

\begin{corollary}\label{hom satz mod cor}
  Sei $A$ ein kommutativer Ring. Sei $M$ ein $A$-Modul. Seien $U,V$
  Untermoduln von $M$. Dann gilt \[U/(U\cap V)\cong (U+V)/V.\] Der
  Isomorphismus ist durch $U/(U\cap V)\ni u+(U\cap V)\mapsto
  u+V\in(U+V)/V$ und die Inverse durch $(U+V)/V\ni u+v+V\mapsto
  u+(U\cap V)\in U/(U\cap V)$ f\"ur $u\in U$ und $v\in V$ gegeben. 
\end{corollary}
\begin{proof}[Beweis]
  Definiere $\phi\colon U+V\to U/(U\cap V)$ durch $u+v\mapsto u+(U\cap
  V)$ f\"ur $u\in U$ und $v\in V$. Die Abbildung $\phi$ ist
  wohldefiniert, denn gelte $u_1+v_1= u_2+v_2$ mit $u_i\in U$ und
  $v_i\in V$, so folgt $u_1-u_2=v_2-v_1\in U\cap V$.  $\phi$ ist
  offensichtlicherweise surjektiv und es gilt $V\subset\ker\phi$. Sei
  umgekehrt $u+v\in\ker\phi$. Dann folgt $0+(U\cap V)=u+(U\cap V)$,
  also $u\in U\cap V\subset V$ und somit $u+v\in V$. Es gilt also
  $V=\ker\phi$. Der Homomorphiesatz f\"ur Moduln liefert also
  \[(U+V)/V\cong U/(U\cap V)\] und die Gestalt des Isomorphismus. 
  Die zweite angegebene Abbildung ist wohldefiniert und eine
  Umkehrabbildung. 
\end{proof}

\begin{definition}
  Sei $M$ ein $A$-Modul und seien $x_1,\ldots,x_n\in M$. 
  \begin{enumerate}[(i)]
  \item Dann hei\ss{}t $(x_1,\ldots,x_n)$ ein Erzeugendensystem von
    $M$, falls $M=Ax_1+\ldots+Ax_n$ gilt. 
  \item $(x_1,\ldots,x_n)$ hei\ss{}t linear abh\"angig, falls
    Ringelemente $a^1,\ldots,a^n\in A$ mit $\sum\limits_{i=1}^n
    a^ix_i=0$ und $a^i\neq0$ f\"ur ein $i\in\{1,\ldots,n\}$
    existieren.\par Andernfalls l\"asst sich $0\in M$ nur auf triviale
    Art und Weise kombinieren, \dh aus $\sum\limits_{i=1}^n
    a^ix_i=0$ f\"ur $a^i\in A$, $i\in\{1,\ldots,n\}$, folgt bereits
    $a^i=0$ f\"ur alle $i\in\{1,\ldots,n\}$. Dann hei\ss{}t
    $(x_1,\ldots,x_n)$ linear unabh\"angig. 
  \item $(x_1,\ldots,x_n)$ hei\ss{}t Basis von $M$, falls
    $(x_1,\ldots,x_n)$ linear unabh\"angig und ein Erzeugendensystem
    von $M$ ist. 
  \item Sei $\mathcal F:=(x_\lambda)_{\lambda\in\Lambda}$ eine
    beliebige Familie mit $x_\lambda\in M$ f\"ur alle
    $\lambda\in\Lambda$. Ist $\Lambda$ eine endliche Menge, so stimmen
    die folgenden Definitionen mit den obigen Definitionen \"uberein:
    \begin{enumerate}[(a)]
    \item $\mathcal F$ hei\ss{}t Erzeugendensystem, falls f\"ur jedes
      $x\in M$ Ringelemente $a^\lambda\in A$ mit
      $\sum\limits_{\lambda\in\Lambda} a^\lambda x_\lambda=x$
      existieren, wobei $a^\lambda=0$ f\"ur fast alle
      $\lambda\in\Lambda$ gilt.
    \item $\mathcal F$ hei\ss{}t linear unabh\"angig, falls jede
      endliche Teilfamilie linear unabh\"angig ist. Sonst hei\ss{}t
      $\mathcal F$ linear abh\"angig.
    \item $\mathcal F$ hei\ss{}t Basis von $M$, falls $\mathcal F$ ein
      linear unabh\"angiges Erzeugendensystem von $M$ ist.
    \end{enumerate}
  \end{enumerate}
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Im allgemeinen gibt es keine nichtleeren linear unabh\"angigen
    Familien in einem Modul. Beispiel: Seien $A=\Z$ und $M=\Z/n\Z$
    f\"ur ein $n\in\N\setminus\{0\}$. Dann gibt es keine linear
    unabh\"angige Teilmenge von $M$, da f\"ur beliebige $a\in M$ stets
    $na=0$ gilt. 
  \item Anders als in Vektorr\"aumen braucht ein minimales
    Erzeugendensystem keine Basis zu sein. Beispiel: Seien wieder
    $A=\Z$ und $M=\Z/n\Z$ f\"ur ein $n\in\N\setminus\{0,\pm1\}$. Ein
    Erzeugendensystem enth\"alt mindestens ein Element ungleich
    Null. Damit ist es aber nicht linear unabh\"angig wie wir gerade
    gesehen haben.
  \item Anders als in Vektorr\"aumen braucht auch eine maximal linear
    unabh\"angige Menge keine Basis zu sein. Beispiel: Seien $A$ und
    $M$ wieder wie oben. Dann ist nur die leere Menge linear
    unabh\"angig. Somit ist keine linear unabh\"angige Menge ein
    Erzeugendensystem. 
  \item Sei $M=A^n$, $n\in\N$. Dann ist $(e_1,\ldots,e_n)$ eine Basis
    des $A$-Moduls $A^n$, wobei $e_i=(0,\ldots,0,1,0,\ldots,0)$ mit
    dem Einser an der $i$-ten Stelle gilt. 
  \end{enumerate}
\end{remark}

\begin{lemma}\label{basis frei aequiv lem}
  Sei $A$ ein kommutativer Ring.  Sei $M$ ein $A$-Modul mit Basis
  $(x_1,\ldots,x_n)$. Dann ist die Abbildung $\phi\colon A^n\to M$ mit
  $(a^1,\ldots,a^n)\mapsto\sum\limits_{i=1}^n a^ix_i$ ein
  Isomorphismus von $A$-Moduln.
\end{lemma}
\begin{proof}[Beweis]
  Klar ist, dass $\phi$ eine $A$-lineare Abbildung ist. $\phi$ ist
  surjektiv, da $(x_1,\ldots,x_n)$ ein Erzeugendensystem ist. $\phi$
  ist injektiv, da $(x_1,\ldots,x_n)$ eine linear unabh\"angige
  Familie ist. 
\end{proof}

\begin{definition}
  Sei $A$ ein kommutativer Ring und $M$ ein $A$-Modul. 
  \begin{enumerate}[(i)]
  \item Der Modul $M$ hei\ss{}t endlich erzeugt, falls $M$ ein
    endliches Erzeugendensystem besitzt.
  \item Der Modul $M$ hei\ss{}t frei, falls $M$ eine Basis besitzt. 
  \end{enumerate}
\end{definition}

\begin{theorem}
  Sei $A$ ein kommutativer Ring und $M$ ein endlich erzeugter
  $A$-Modul.
  \begin{enumerate}[(i)]
  \item $M$ ist genau dann frei, wenn $M\cong A^n$ f\"ur ein $n\in\N$
    ist. 
  \item Ist $M$ ein freier Modul, so haben alle Basen dieselbe
    M\"achtigkeit (oder L\"ange).\par
    Wir definieren den Rang von $M$, $\rk(M)$, als die Anzahl der
    Elemente einer Basis. Die obige Aussage zeigt, dass $\rk(M)$ f\"ur
    endlich erzeugte $A$-Moduln wohldefiniert ist.
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Eine Richtung folgt aus Lemma \ref{basis frei aequiv lem}, die
    andere Richtung ist klar. 
  \item Im Spezialfall, dass $A$ ein K\"orper ist, ist $M$ ein
    Vektorraum und die Aussage ist bekannt. Ist $A=\{0\}$, so ist
    $M=\{0\}$ und die Aussage trivial. Wir nehmen daher ab jetzt an,
    dass $A\neq\{0\}$ gilt. \par
    Sei sei $I\subsetneq A$ ein beliebiges maximales Ideal. Dann ist
    $A/I$ ein K\"orper. Wir d\"urfen aufgrund des ersten Teiles
    annehmen, dass $M=A^n$ f\"ur ein $n\in\N$ gilt. Da $I$ ein Ideal
    von $A$ ist, ist $U:=IM\subset AM=M$ ein Untermodul von
    $M=A^n$. Es folgt $M/U =A^n/(IM) =A^n/I^n =(A/I)^n$. Wir erhalten
    $n=\dim_{A/I}M/U$. W\"are $M\cong A^m\cong A^n$ f\"ur ein $m\neq
    n$ so folgte, dass $A^n/(I(A^n))$ und $A^m/(I(A^m))$ \"uber $A/I$
    isomorphe Vektorr\"aume w\"aren. Dies ist jedoch unm\"oglich, da
    sie verschiedene Dimensionen haben.  \qedhere
  \end{enumerate}
\end{proof}

Wie f\"ur Vektorr\"aume definieren wir auch f\"ur Moduln direkte
Summen. 
\begin{definition}[Externe direkte Summe von Moduln]
  Seien $M_1,\ldots,M_n$ jeweils $A$-Moduln \"uber einem kommutativen
  Ring $A$. Wir definieren die \"au\ss{}ere oder externe direkte Summe
  $M_1\oplus\ldots\oplus M_n$ als das kartesische Produkt
  $M_1\times\ldots\times M_n$ mit komponentenweiser Addition und
  Skalarmultiplikation.
\end{definition}

Ist die gegebene Familie von $A$-Moduln unendlich, so unterscheiden
wir zwischen der direkten Summe und dem direkten Produkt. 
\begin{definition}
  Sei $A$ ein kommutativer Ring mit Eins. Sei
  $(M_\lambda)_{\lambda\in\Lambda}$, $\Lambda$ eine beliebige
  Indexmenge, eine Familie von $A$-Moduln. Dann sind die direkte Summe
  $\bigoplus\limits_{\lambda\in\Lambda}M_\lambda$ und das direkte
  Produkt $\prod\limits_{\lambda\in\Lambda}M_\lambda$ der Familie
  $(M_\lambda)_{\lambda\in\Lambda}$ Teilmengen des kartesischen
  Produktes $\prod\limits_{\lambda\in\Lambda}M_\lambda$ mit
  komponentenweiser Addition und Skalarmultiplikation. Die Elemente
  haben die Form $(x_\lambda)_{\lambda\in\Lambda}$ mit $x_\lambda\in
  M_\lambda$ f\"ur alle $\lambda\in\Lambda$. F\"ur das direkte Produkt
  nehmen wir als Menge das gesamte kartesische Produkt, f\"ur die
  \"au\ss{}ere direkte Summe nur die Elemente
  $(x_\lambda)_{\lambda\in\Lambda}$ mit $x_\lambda\in M_\lambda$ und
  $x_\lambda=0$ f\"ur fast alle $\lambda\in\Lambda$. 
\end{definition}

\begin{definition}[Interne direkte Summe von Moduln]
  Sei $A$ ein kommutativer Ring und $U_1,\ldots,U_n\subset M$
  Untermoduln eines $A$-Moduls $M$. Definiere $U:=\sum\limits_{i=1}^n
  U_i=\{u_1+\ldots+u_n\colon u_i\in U_1 \text{ f\"ur
  }i\in\{1,\ldots,n\}\}$. \par Wir definieren die kanonische
  $A$-lineare Abbildung \[\phi\colon\bigoplus\limits_{i=1}^n U_i\to
  U\quad\text{durch} \quad (u_1,\ldots,u_n)\mapsto \sum\limits_{i=1}^n
  u_i.\] $\phi$ ist genau dann ein Isomorphismus, wenn aus
  $\sum\limits_{i=1}^n u_i=0$ mit $u_i\in U_i$ f\"ur
  $i\in\{1,\ldots,n\}$ bereits $u_1=u_2=\ldots=u_n=0$ folgt. Ist
  $\phi$ ein Isomorphismus, so sagen wir, dass die interne Summe
  $U=\sum\limits_{i=1}^n U_i$ direkt ist. (Betrachten wir Moduln
  \"uber K\"orpern, also Vektorr\"aume, so ist eine interne Summe von
  Vektorr\"aumen genau dann direkt, wenn dies f\"ur die interne Summe
  als Summe von Untermoduln gilt.)
\end{definition}

\begin{definition}
  Sei $A$ ein Ring (kommutativ, mit Eins). Dann hei\ss{}t ein
  $A$-Modul $M$ zyklisch, wenn $M=Ax$ f\"ur ein $x\in M$ gilt.
\end{definition}

Zyklische Moduln sind isomorph zu Quotienten von $A$.
\begin{theorem}\label{zyk quot iso thm}
  Sei $A$ ein kommutativer Ring mit Eins. Sei $M$ ein $A$-Modul. Dann
  ist $M$ genau dann zyklisch, wenn es ein Ideal $I$ von $A$ mit
  $M\cong A/I$ gibt. Hier bezeichnet \glqq$\cong$\grqq{} Isomorphie
  von $A$-Moduln.
\end{theorem}
\begin{proof}[Beweis]
  \neueZeilealt \Hinrichtung Sei $M$ zyklisch, gelte also $M=Ax$ f\"ur
  ein $x\in M$. Dann ist $\phi\colon A\to M$ mit $\phi(a):=ax$ f\"ur
  $a\in A$ surjektiv und $A$-linear. Definiere $I:=\ker\phi$. Dann ist
  $I$ ein Ideal von $A$. Aufgrund des Homomorphiesatzes erhalten wir
  einen Isomorphismus von $A$-Moduln: \[\bar\phi\colon A/I\overset
  \sim\longrightarrow M\quad\text{mit}\quad
  \bar\phi(a+I):=ax\quad\text{f\"ur }a\in A.\] Also ist $M\cong
  A/I$.\par 
  \Rueckrichtung Gelte $M\cong A/I$. Dann ist $A\ni a\mapsto
  a\cdot(1+I)$ surjektiv. Somit ist $M$ zyklisch. 
\end{proof}

\begin{remark}
  Das Ideal $I$ im Beweis von Theorem \ref{zyk quot iso thm} h\"angt
  nicht von der speziellen Wahl von $x$ ab. Gelte n\"amlich $M=Ax=Ay$
  f\"ur ein $y\in M$. Dann gilt $\alpha x=y$ f\"ur ein $\alpha\in
  A$. Definiere $\psi\colon A\to M$ durch $\psi(a):=ay$ f\"ur $a\in A$
  und $J:=\ker\psi$. Dann gilt $I=J$: Sei $a\in\ker\phi$, also
  $ax=0$. Dann folgt $0=\alpha ax =a(\alpha x) =ay$. Also ist
  $a\in\ker\psi$. Aus Symmetriegr\"unden erhalten wir
  $\ker\phi=\ker\psi$.\par Wie in diesem Beweis erh\"alt man auch
  $I=\{a\in A\colon ax=0\text{ f\"ur alle } x\in M\}$.  Somit ist $I$
  eindeutig bestimmt.  Wir definieren den Annulator von $M$ durch
  $\Ann(M):=\{a\in A\colon ax=0\text{ f\"ur alle } x\in M\}$.
\end{remark}

\begin{lemma}
  \label{zykl umod lem}
  Sei $A$ ein Ring (kommutativ, mit Eins). Sei $M$ ein zyklischer
  $A$-Modul. Dann gelten:
  \begin{enumerate}[(i)]
  \item Sei $U$ ein Untermodul von $M$. Dann ist der Faktormodul $M/U$
    von $M$ selbst wieder zyklisch.
  \item Ist $A$ ein Hauptidealring, so ist auch jeder Untermodul von
    $M$ zyklisch. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ist $M=Ax$, so folgt $M/U=A(x+U)$. 
  \item Nach Theorem \ref{zyk quot iso thm} d\"urfen wir annehmen,
    dass $M=A/I$ f\"ur ein Ideal $I$ von $A$ gilt. Nach Definition hat
    jeder Untermodul von $M$ die Form $U=J/I$ f\"ur ein Ideal $J$ von
    $A$ mit $I\subset J$ ($U$ besitzt die Darstellung $J/I$ f\"ur eine
    Menge $J$ mit $I\subset J$. Man rechnet mit Hilfe der Definition
    eines Untermoduls nach, dass $J$ ein Ideal ist.). Da $A$ ein
    Hauptidealring ist, ist $J$ ein Hauptideal, also von einem Element
    erzeugt. Somit sind $J$ und daher auch $U$ zyklisch. \qedhere
  \end{enumerate}
\end{proof}

\begin{theorem}
  \label{umod endl erz thm}
  Sei $A$ ein Hauptidealring und $M$ ein endlich erzeugter
  $A$-Modul. Sei $U\subset M$ ein Untermodul. Dann ist $U$ selbst
  ebenfalls endlich erzeugt. 
\end{theorem}
\begin{proof}[Beweis]
  Gelte $M=Ax_1+\ldots+Ax_n$ f\"ur $x_i\in M$. Wir zeigen per
  Induktion nach $n$, dass auch $U$ von $n$ Elementen erzeugt
  wird. \par Ist $n=1$, so ist $M$ zyklisch und die Behauptung folgt
  aus Lemma \ref{zykl umod lem}.\par \glqq$n-1\,\leadsto\,n$\grqq:
  Definiere $N:=Ax_1+\ldots+Ax_{n-1}$. Dann ist $U\cap N$ ein
  Untermodul von $N$. Daher wird $U\cap N$ nach
  Induktionsvoraussetzung von $n-1$ Elementen, $y_1,\ldots,y_{n-1}$,
  erzeugt.  Nach dem Homomorphiesatz f\"ur Moduln, genauer: Korollar
  \ref{hom satz mod cor}, folgt $U/(U\cap N)\cong (U+N)/N$. $(U+N)/N$
  ist ein Untermodul von $M/N$. Es gilt $M/N=A(x_n+N)$. Also ist $M/N$
  zyklisch. Da $A$ ein Hauptidealring ist, ist auch $(U+N)/N\cong
  U/(U\cap N)$ nach Lemma \ref{zykl umod lem} zyklisch. Es gibt also
  ein $z\in U$ mit $U/(U\cap N)=A(z+(U\cap N))$. Wir erhalten
  insgesamt $U=Ay_1+\ldots+Ay_n+Az$.
\end{proof}

\Subsection{Der Elementarteilersatz f\"ur Moduln}

Sei $A$ in diesem Abschnitt stets ein euklidischer Ring (da wir den
Elementarteilersatz f\"ur Matrizen f\"ur Hauptidealringe nicht
bewiesen haben). 

Den Elementarteilersatz f\"ur Matrizen k\"onnen wir f\"ur freie Moduln
wie folgt umformulieren: 
\begin{theorem}
  \label{el teil satz matr thm}
  Seien $M,N$ endlich erzeugte freie $A$-Moduln. Sei $f\colon M\to N$
  eine $A$-lineare Abbildung. Dann gibt es Basen $(x_1,\ldots,x_m)$
  von $M$ und $(y_1,\ldots,y_n)$ von $N$ und $r$ mit $0\le
  r\le\min\{m,n\}$ sowie $d_i\in A$, $1\le i\le r$, mit
  $d_1|d_2|\ldots|d_r$ und $d_i\neq0$, so dass \[f(x_i)=
  \begin{cases}
    d_iy_i&\text{f\"ur }i=1,\ldots,r,\\
    0&\text{sonst.}
  \end{cases}
  \]
\end{theorem}
\begin{proof}[Beweis]
  Da $M,N$ endlich erzeugt und frei sind, d\"urfen wir ohne
  Einschr\"ankung $M=A^m$ und $N=A^n$ annehmen. Gelte $f(x)=Tx$ f\"ur
  eine Matrix $T\in A^{n\times m}$. Aufgrund des Elementarteilersatzes
  f\"ur Matrizen, Theorem \ref{elementarteilersatz thm}, gibt es
  Matrizen $U\in \GL_n(A)$ und $V\in \GL_m(A)$ mit 
  \[UTV=\left(
    \begin{array}{c|ccc}
      \begin{matrix}
        d_1&&0\\
        &\ddots&\\
        0&&d_r
      \end{matrix}
      &&0&\\\hline
      &&&\\
      0&&0&\\
      &&&
    \end{array}\right)\]
  und $d_i\neq0$ sowie $d_1|d_2|\ldots|d_r$. \par Sei $e_j$, $1\le
  j\le m$, die
  Standardbasis von $A^m$ und sei $e'_i$, $1\le i\le n$, die
  Standardbasis von $A^n$. Dann folgt aus der Gestalt von $UTV$
  \[UTVe_j=
  \begin{cases}
    d_je'_j&\text{f\"ur }j=1,\ldots,r,\\
    0&\text{sonst.}
  \end{cases}
  \]
  Definiere nun $x_j:=Ve_j$, $j=1,\ldots,m$ sowie $y_i:=U^{-1}e'_i$
  f\"ur $i=1,\ldots,n$. F\"ur $j=1,\ldots,r$ gilt $f(x_j)=TVe_j
  =U^{-1}UTVe_j =U^{-1}d_je'_j =d_jy_j$ und f\"ur $j=r+1,\ldots,m$
  erhalten wir $f(x_j) =TVe_j=0$.
\end{proof}

\begin{corollary}
  \label{umod frei frei cor}
  Sei $M$ ein endlich erzeugter freier $A$-Modul. Sei $U$ ein
  Untermodul von $M$. Dann gilt:
  \begin{enumerate}[(i)]
  \item Es gibt eine Basis $(x_1,\ldots,x_m)$ von $M$ sowie $r$ mit
    $0\le r\le m$ und $d_i\in A$ mit $d_i\neq0$ und
    $d_1|d_2|\ldots|d_r$, so dass $(d_1x_1,\ldots,d_rx_r)$ eine Basis
    von $U$ ist. 
  \item Insbesondere ist also $U$ als $A$-Modul selbst frei und es
    gilt $\rk(U)\le\rk(M)$. 
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  Es gen\"ugt offensichtlicherweise, den ersten Teil zu zeigen. \par
  Nach Theorem \ref{umod endl erz thm} ist auch $U$ endlich
  erzeugt. Sei $u_1,\ldots,u_m$ ein Erzeugendensystem von
  $U$. Definiere die $A$-lineare Abbildung $f\colon A^m\to U$
  durch \[f(a^1,\ldots,a^m):=\sum\limits_{i=1}^m a^iu_i.\] Nach
  Voraussetzung gilt $\im f=U$. Nach Theorem \ref{el teil satz matr
    thm} gibt es Basen $(z_1,\ldots,z_m)$ von $A^m$ und
  $(x_1,\ldots,x_n)$ von $M$ mit \[f(z_i)=
  \begin{cases}
    d_ix_i&\text{f\"ur }1\le i\le r,\\
    0&\text{sonst}
  \end{cases}
  \]
  mit $d_1,\ldots,d_r\neq0$. Beschreiben wir $f$ mit diesen Basen, so
  ist klar, dass auch $d_1x_1,\ldots,d_rx_r$ ein Erzeugendensystem
  f\"ur $\im f=U$ ist. Nach Definition der linearen Unabh\"angigkeit
  ist $\{d_1x_1,\ldots,d_rx_r\}$ linear unabh\"angig, da dies f\"ur
  $x_1,\ldots,x_r$ in $M$ gilt. Somit ist $(d_1x_1,\ldots,d_rx_r)$
  eine Basis von $U$. 
\end{proof}

\begin{beispiel}
  Sei $A=\Z$. Identifiziere $T\in\Z^{2\times 3}$ mit einer Abbildung
  $T\colon\Z^3\to\Z^2$ verm\"oge $T(x):=Tx$. Betrachte wieder das
  Beispiel 
    \[
  UTV=
  \begin{pmatrix}
    -1 & 2 \\
    8 & -17
  \end{pmatrix}
  \begin{pmatrix}
    -17 & 14 & 39 \\
    -8 & 6 & 21
  \end{pmatrix}
  \begin{pmatrix}
    1 & 7 & -12 \\
    0 & 5 & -9 \\
    0 & 1 & -2
  \end{pmatrix}
  =
  \begin{pmatrix}
    1 & 0 & 0 \\
    0 & 5 & 0
  \end{pmatrix}=D.
  \]
  Der Untermodul $\im T\subset\Z^2$ ist nach Korollar \ref{umod frei
    frei cor} ein freier Modul. Wegen $V\in \GL_3(\Z)$ gilt $\im D =\im
  UT$. Eine Basis von $\im D$ ist $(1,0)^T$, $(0,5)^T$. Eine Basis von
  $\im T$ erhalten wir also, wenn wir $U^{-1} =\left(
    \begin{smallmatrix}
      -17 & -2\\ -8 & -1
    \end{smallmatrix}
  \right)$ auf die Basis anwenden. Wir erhalten also als eine Basis
  von $\im T$ die Vektoren $(17,8)^T$ und $5\cdot(2,1)^T$. $\im T$ ist
  ein freier Untermodul von $\Z^2$ vom Rang $2$. \par
  Beachte, dass $\im T\subsetneq \Z^2$ gilt, aber $\rk\im T=\rk\Z^2=2$
  gilt. Dies w\"are \"uber einem K\"orper, \dh f\"ur Vektorr\"aume,
  nicht m\"oglich. 
\end{beispiel}

Wir wollen nun die Struktur von endlich erzeugten Moduln genauer
untersuchen. 
\begin{theorem}[Elementarteilersatz f\"ur Moduln]
  \neueZeilealt
  \label{el teiler satz moduln}
  Sei $M$ ein endlich erzeugter $A$-Modul. Dann gibt es $r,n\ge0$ und
  $d_i\in A\setminus(\{0\}\cup A^*)$ mit $d_1|d_2|\ldots|d_r$ und
  $d_i\neq0$ so dass \[M\cong A^n\oplus A/(d_1)\oplus\ldots\oplus
  A/(d_r).\] Insbesondere ist also $M$ die direkte Summe von endlich
  vielen zyklischen $A$-Moduln. Die Elemente $d_1,\ldots,d_r$
  hei\ss{}en Elementarteiler von $M$, $n$ der (torsionsfreie) Rang von
  $M$.
\end{theorem}
Wir werden sp\"ater sehen, dass die Elementarteiler bis auf Einheiten
eindeutig bestimmt sind. 
\begin{proof}[Beweis]
  Sei $x_1,\ldots,x_m$ ein Erzeugendensystem von $M$. Definiere
  $f\colon A^m\to M$ durch \[f(a):=\sum\limits_{i=1}^ma^ix_i.\] Setze
  $U:=\ker f$. Dann gilt nach Theorem \ref{hom mod thm}
  (Homomorphiesatz f\"ur Moduln) $M\cong A^m/U$. Nach Korollar
  \ref{umod frei frei cor} gibt es eine Basis $(y_1,\ldots,y_m)$ von
  $A^m$ und $0\le r\le m$ mit $d_1|\ldots|d_r$, $d_i\neq0$, so dass
  $(d_1y_1,\ldots,d_ry_r)$ eine Basis von $U$ ist. Somit
  gilt \[U=Ad_1y_1\oplus\ldots\oplus Ad_ry_r.\] Wir erhalten
  \begin{align*}
    M\cong &\,A^m/U\umbruch\\ \cong&\, (Ay_1\oplus\ldots\oplus
    Ay_r\oplus\ldots \oplus Ay_m)/(Ad_1y_1\oplus\ldots\oplus
    Ad_ry_r\oplus\{0\}\oplus\ldots\oplus\{0\})\umbruch\\
    \cong&\, A/(d_1)\oplus\ldots\oplus A/(d_r)\oplus A^{m-r}.
  \end{align*}
  (Wenn keine Verwechslungsgefahr besteht schreibt man solche
  Quotienten auch manchmal mit waagrechtem \glqq Bruchstrich\grqq.)
  S\"amtliche Summanden $A/(d_i)$ in denen $d_i$ eine Einheit ist
  lassen wir weg und erhalten die Behauptung. 
\end{proof}

\begin{remark}
  \label{el teiler matr mod rem}
  Elementarteiler von Matrizen und Elementarteiler von Moduln h\"angen
  wie folgt zusammen: Sei $T\in A^{m\times n}$ und seien
  $d_1|\ldots|d_r$ mit $d_i\neq0$ die Elementarteiler von $T$. Sei
  $1\le s\le r$ so gew\"ahlt, dass $d_s\sim 1$, aber $d_{s+1}\not\sim
  1$ gelten. Verm\"oge $x\mapsto Tx$ induziert $T$ eine Abbildung
  $A^n\to A^m$, die wir wieder mit $T$ bezeichnen. Definiere einen
  $A$-Modul durch $M:=A^m/\im T$. Dann liest man aus der
  Elementarteilerform von $T$ ab, dass \[M\cong A^{m-r}\oplus
  A/(d_{s+1})\oplus\ldots\oplus A/(d_r)\] gilt. \par Damit sind die
  Elementarteiler von $M$ gerade die Elementarteiler von $T$, die
  keine Einheiten sind. Sei umgekehrt $M$ wie oben definiert
  gegeben. Sei $t$ der torsionsfreie Rang von $M$. Setze
  $r:=m-t$. Dann besitzt $T$ genau $r=m-t$ Elementarteiler, n\"amlich
  die Elementarteiler von $M$ und Einheiten. Diese Elementarteiler
  sind aufgrund der Bemerkung nach dem Elementarteilersatz f\"ur
  Moduln eindeutig bestimmt. \par Somit sind die Elementarteiler von
  $T$ durch die von $M$ eindeutig bestimmt und umgekehrt.
\end{remark}

Wir arbeiten nun auf den Eindeutigkeitsbeweis f\"ur die
Elementarteiler hin.

\begin{definition}
  Sei $M$ ein $A$-Modul. 
  \begin{enumerate}[(i)]
  \item Dann hei\ss{}t $x\in M$ ein Torsionselement, falls es ein
    $0\neq a\in A$ mit $ax=0$ gibt. F\"ur die Menge aller
    Torsionselemente von $M$ schreiben wir $M_{\text{tors}}$. 
  \item Der Modul $M$ hei\ss{}t torsionsfrei, wenn
    $M_{\text{tors}}=\{0\}$ gilt. $M$ hei\ss{}t Torsionsmodul, falls
    $M_{\text{tors}}=M$ ist.
  \end{enumerate}
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $M_{\text{tors}}$ ist ein Untermodul von $M$: Klar ist, dass
    $M_{\text{tors}}$ unter Skalarmultiplikation mit Elementen aus dem
    Ring $A$ abgeschlossen ist. Seien $x,y\in M_{\text{tors}}$ und
    $a\neq0\neq b$ mit $ax=by=0$. Dann folgt $ab(x+y)=0$ und da $A$
    nach Generalvoraussetzung in diesem Kapitel nullteilerfrei ist
    gilt $ab\neq0$.
  \item Sei $M$ ein $A$-Modul. Dann ist $M/M_{\text{tors}}$ ein
    torsionsfreier Modul: Sei $x+M_{\text{tors}}\in M/M_{\text{tors}}$
    beliebig. Sei $a\in A$ mit $a\neq0$ und $a(x+M_{\text{tors}}) =0$
    in $M/M_{\text{tors}}$. Dann ist $ax\in M_{\text{tors}}$, es gibt
    also ein $b\in A$ mit $b\neq0$ und $0 =b(ax) =(ba)x$ in $M$. Somit
    ist $x\in M_{\text{tors}}$ und daher gilt $x+M_{\text{tors}}=0$ in
    $M/M_{\text{tors}}$.
  \item Sei $M=A^n\oplus A/(a_1)\oplus\ldots\oplus A/(a_r)$ mit $0\neq
    a_i$, $1\le i\le r$. Dann gelten
    $M_{\text{tors}}=A/(a_1)\oplus\ldots \oplus A/(a_r)$ und somit
    $M/M_{\text{tors}}=A^n$. $n$ ist der torsionsfreie Rang von
    $M$. Da $M_{\text{tors}}$ unabh\"angig von der Darstellung von $M$
    als \"au\ss{}ere direkte Summe definiert ist, und $A^m\not\cong
    A^n$ f\"ur $m\neq n$ gilt, ist $n$ wohldefiniert.
  \end{enumerate}
\end{remark}

\begin{definition}
  Sei $M$ ein $A$-Modul. Sei $p\in A$
  irreduzibel. Definiere \[M(p):=\{x\in M\colon p^nx=0 \text{ f\"ur
    ein }n\ge1\}.\] $M(p)$ ist ein Torsionsuntermodul von $M$ und
  hei\ss{}t die $p$-prim\"are Komponente von $M$. (Zur
  Untermoduleigenschaft: Beachte insbesondere, dass aus $p^mx=0$ und
  $p^ny=0$ auch $p^{\max\{m,n\}}(x+y)=0$ folgt.) \par Der Modul $M$
  hei\ss{}t $p$-prim\"ar, falls $M(p)=M$ gilt.
\end{definition}

\begin{theorem}
  \label{p primaer thm}
  Sei $M$ ein endlich erzeugter $A$-Modul und gleichzeitig ein
  Torsionsmodul. Dann gibt es (abgesehen von assoziierten Wahlen) nur
  endlich viele irreduzible Elemente $p\in A$ mit $M(p)\neq\{0\}$. Wir
  bezeichnen diese mit $p_1,\ldots,p_m$. Es gelte $p_i\not\sim p_j$
  f\"ur $i\neq j$. Dann gilt \[M= M(p_1)\oplus\ldots \oplus M(p_m).\]
\end{theorem}
\begin{proof}[Beweis]
  Nach dem Elementarteilersatz f\"ur Moduln, Theorem \ref{el teiler
    satz moduln}, gibt es Ringelemente $d_1,\ldots,d_r$ mit
  $d_i\neq0$, $1\le i\le r$, und
  $M\cong\bigoplus\limits_{i=1}^rA/(d_i)$. Betrachte
  $d_1\cdot\ldots\cdot d_r$. Seien $p_1,\ldots,p_m$ die irreduziblen
  Teiler dieses Produktes wobei wir assoziierte Teiler nur einmal
  auf"|f\"uhren. Dann gibt es $e_{i,j}\ge0$, $1\le i\le r$, mit
  $d_i\sim\prod\limits_{j=1}^m p_j^{e^{i,j}}$ f\"ur alle $1\le i\le
  r$.  Nach dem Korollar zum Chinesischen Restsatz, Korollar \ref{chin
    restsatz cor}, gilt somit \[A/(d_i)\cong
  A/\left(p_1^{e_{i,1}}\right)\oplus \ldots\oplus
  A/\left(p_m^{e_{i,m}}\right)\] f\"ur alle $1\le i\le r$, da
  $(d_i)=(p_1^{e_{i,1}})\cap\ldots\cap(p_m^{e_{i,m}})$ gilt. Damit
  folgt
  \[M \cong\bigoplus\limits_{i=1}^r A/(d_i)
  \cong\bigoplus\limits_{j=1}^m \bigoplus\limits_{i=1}^r
  A/\left(p_j^{e_{i,j}}\right) \equiv \bigoplus\limits_{j=1}^m
  M(p_j),\] wobei wir in der letzten Gleichheit verwendet haben, dass
  genau die Komponenten der \"au\ss{}eren direkten Summe zu $M(p_j)$
  beitragen, die die Form $A/(p_j^e)$ f\"ur ein $e\ge1$ haben. 
\end{proof}

\begin{remark}
  Im Beweis haben wir gesehen, dass $M(p)\neq\{0\}$ genau dann gilt,
  wenn $p$ einen Elementarteiler von $M$ teilt. 
\end{remark}

Wichtig f\"ur den Eindeutigkeitssatz der Elementarteiler ist
\begin{theorem}
  \label{thm fuer eind element mod thm}
  Sei $p\in A$ irreduzibel. Sei $M$ ein endlich erzeugter
  $p$-prim\"arer $A$-Modul. Dann gilt \[M\cong
  A/(p^{e_1})\oplus\ldots\oplus A/(p^{e_r})\] mit $r\ge0$ und
  $e_1,\ldots,e_r\in\N\setminus\{0\}$. Dabei sind $r$ und die $e_i$'s
  (bis auf die Reihenfolge) eindeutig bestimmt. 
\end{theorem}
\begin{proof}[Beweis]
  Nach dem Elementarteilersatz f\"ur Moduln, Theorem \ref{el teiler
    satz moduln}, und Theorem \ref{p primaer thm} samt Beweis gibt es
  $r$ und $e_1,\ldots,e_r\ge1$ wie angegeben. Summanden mit anderen
  nicht assoziierten irreduziblen Ringelementen treten nicht auf, da
  $M$ ein $p$-prim\"arer Modul ist. Ebenso ist $e_i=0$
  ausgeschlossen. \par
  Sei $i\ge0$ beliebig. Dann ist $p^iM:=\{p^ix\colon x\in M\}$ ein
  endlich erzeugter Untermodul von $M$. Es gilt die
  Inklusionskette \[M=p^0M\supseteq pM\supseteq p^2M\supseteq
  \ldots.\] F\"ur $i\ge1$ definieren wir $A$-Moduln
  $V_i:=V_i(M):=p^{i-1}M/p^iM$. Es gilt $pV_i=\{0\}$. Daher erhalten
  wir bei der Skalarmultiplikation von Elementen in $V_i$ mit
  beliebigen Elementen in $a+(p)$ f\"ur $a\in A$ stets dasselbe
  Resultat. Somit ist $V_i$ auch ein Modul \"uber $A/(p)=:K$. Da $p$
  irreduzibel ist, ist $K$ ein K\"orper. Somit ist $V_i$ ein
  $K$-Vektorraum. \par Wir wollen nun $\dim_K(V_i)$ bestimmen: Dazu
  betrachten wir einen festen Summanden $N:=A/(p^e)$ von $M$. Ist
  $i\ge e$, so gilt $p^iN=\{0\}$. Ist $i\le e$, so ist $p^iN \cong
  p^iA/(p^e)$. F\"ur $i\ge1$ erhalten wir also
  \[V_i(N)=\frac{p^{i-1}N}{p^iN} \cong
  \begin{cases}
    (p^{i-1})/(p^i)\cong K&\text{f\"ur }i\le e,\\
    \{0\}&\text{f\"ur }i>e. 
  \end{cases}
  \] 
  Dabei haben wir f\"ur $i\le e$ \[\frac{p^{i-1}N}{p^iN}
  \cong\frac{p^{i-1}A/p^eA}{p^iA/p^eA} \cong\frac{p^{i-1}A}{p^iA}\]
  benutzt. Der letzte Isomorphismus im Fall $i\le e$ ist dabei durch
  \begin{align*}
    K\cong A/pA\to&\,\frac{p^{i-1}A}{p^iA},\\
    a+pA\mapsto&\,p^{i-1}a+p^iA
  \end{align*}
  gegeben. Die Definition von $V_i$ k\"onnen wir in der Darstellung
  von $M$ als direkte Summe komponentenweise anwenden und
  erhalten \[V_i(M)\cong \bigoplus\limits_{j=1}^r V_i(A/(p^{e_j})).\]
  Damit folgt 
  \begin{equation}
    \label{ei dim eq}
    \dim_KV_i(M)=\#\{j\in\{1,\ldots,r\}\colon e_j\ge i\}.
  \end{equation} 
  Durch $M$ sind die Zahlen $\dim_KV_i(M)$ (unabh\"angig von der
  Darstellung von $M$ als direkte Summe) eindeutig bestimmt. Gleichung
  \eqref{ei dim eq} legt damit aber auch die Zahlen $e_j$ bis auf die
  Reihenfolge eindeutig fest.
\end{proof}

\begin{beispiel}
  Aus \eqref{ei dim eq} folgt \[\dim_KV_1(M)\ge\dim_KV_2(M)\ge\ldots\]
  und $\dim_KV_i(M)=0$ f\"ur gen\"ugend gro\ss{}e $i\in\N$. Sind 
  \[
  \begin{array}{|c||c|c|c|c|c|c|c|}
    \hline
    i&1&2&3&4&5&6&7\\\hline
    \dim_KV_i(M)&4&4&3&1&1&0&0\\\hline
  \end{array}\quad\ldots
  \]
  vorgegeben, so folgt mit \eqref{ei dim eq} 
  \[
  \begin{array}{|c||c|c|c|c|}
    \hline
    j&1&2&3&4\\\hline
    e_j&5&3&3&2\\\hline
  \end{array}
  \]
  sowie $r=4$.
\end{beispiel}

Nun erhalten wir daraus die Eindeutigkeit der Elementarteiler.
\begin{theorem}
  Die Elementarteiler eines endlich erzeugten $A$-Moduls oder einer
  Matrix \"uber $A$ sind bis auf Assoziiertheit eindeutig bestimmt. 
\end{theorem}
\begin{proof}[Beweis]
  Aufgrund der Bemerkung \ref{el teiler matr mod rem} gen\"ugt es zu
  zeigen, dass die Elementarteiler von Moduln eindeutig bestimmt
  sind. Nach dem Elementarteilersatz f\"ur Moduln, Theorem \ref{el
    teiler satz moduln}, gilt \[M\cong A^n\oplus
  A/(d_1)\oplus\ldots\oplus A/(d_r)\] mit $1\not\sim
  d_1|\ldots|d_r\neq0$, $r\ge0$. Dann k\"onnen wir $d_i\sim
  p_1^{e_{i,1}}\cdot\ldots\cdot p_m^{e_{i,m}}$ f\"ur alle $1\le i\le
  r$ mit irreduziblen und paarweise nicht assoziierten
  $p_1,\ldots,p_m\in A$ schreiben. Aus $d_i|d_j$ f\"ur $i\le j$ folgt
  $e_{1,j}\le \ldots\le e_{r,j}$ f\"ur $1\le j\le m$. F\"ur die
  prim\"aren Komponenten folgt wie im Beweis von Theorem \ref{p
    primaer thm} \[M(p_j)\cong A/\left(p_j^{e_{1,j}}\right)\oplus
  \ldots\oplus A/\left(p_j^{e_{r,j}}\right).\] Nach Theorem \ref{thm
    fuer eind element mod thm} sind die (angeordneten) Zahlen
  $e_{1,j}\le\ldots\le e_{r,j}$ durch $M(p_j)$ und damit letztlich
  durch $M$ eindeutig bestimmt. Damit sind die $d_i$'s bis auf
  Assoziiertheit ebenfalls eindeutig bestimmt.
\end{proof}

\begin{corollary}
  \label{zykl ein elteiler cor}
  Sei $M$ ein endlich erzeugter Torsionsmodul mit Elementarteilern
  $d_1|\ldots|d_r$. Dann ist $M$ genau dann zyklisch, wenn $r\le1$
  ist. 
\end{corollary}
\begin{proof}[Beweis]
  \neueZeilealt \Hinrichtung Sei $M$ zyklisch.  Nach Theorem \ref{zyk
    quot iso thm} und da $A$ ein Hauptidealring ist gilt $M\cong
  A/(d)$ f\"ur ein $d\in A$. Somit ist $d$ der einzige Elementarteiler
  von $M$ und $r\le1$. Aufgrund der Eindeutigkeit der Elementarteiler
  gibt es keine Darstellung mit $r>1$.\par
  \Rueckrichtung Klar. 
\end{proof}

Wir wollen die Situation f\"ur den Ring $A=\Z$ genauer betrachten. Wir
betrachten also $\Z$-Moduln, \dh abelsche Gruppen. Diese schreiben wir
additiv. 
\begin{corollary}
  Sei $G$ eine endlich erzeugte abelsche Gruppe. Dann gilt
  $G\cong\Z^n\times H$ mit $n\ge0$ und einer endlichen abelschen
  Gruppe $H$. $n$ und $H$ sind bis auf Isomorphie eindeutig bestimmt.  
\end{corollary}
\begin{proof}[Beweis]
  Die Behauptung folgt aus dem Elementarteilersatz, wenn wir $H$ als
  den Torsionsmodul des $\Z$-Moduls $G$ definieren. 
\end{proof}

Insbesondere folgt f\"ur endliche abelsche Gruppen
\begin{corollary}
  Sei $G$ eine endliche abelsche Gruppe. Dann ist $G\cong
  G_1\times\ldots\times G_r$ f\"ur endliche zyklische Gruppen
  $G_i$. Es gibt zwei Normalformen:
  \begin{enumerate}[(i)]
  \item Elementarteilerform: Es gilt $\#G_1|\#G_2|\ldots|\#G_r$,
    $\#G_i\equiv |G_i|$. Dabei sind die M\"achtigkeiten $|G_i|$
    eindeutig bestimmt. 
  \item Prim\"arzerlegungsform: $|G_i|$ ist eine Primzahlpotenz einer
    Primzahl $p_i$ f\"ur alle $1\le i\le r$ mit $p_i\not\sim p_j$
    f\"ur $i\neq j$. Dabei sind die M\"achtigkeiten $|G_i|$ bis auf
    Permutationen eindeutig bestimmt.
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ist gerade der Elementarteilersatz.
  \item Dies folgt aus Theorem \ref{p primaer thm} inklusive
    Beweis. \qedhere 
  \end{enumerate}
\end{proof}

\begin{beispiel}
  Sei $G=\Z/(6)\oplus\Z/(56)\oplus\Z/(210)$.  Wir gehen wie im Beweis
  des Elementarteilersatzes bzw.{} von Theorem \ref{p primaer thm} vor
  und erhalten: 
  \begin{enumerate}[(i)]
  \item Prim\"arzerlegungsform: Es gelten $6=2\cdot 3$, $56=2^3\cdot
    7$ und $210=2\cdot 3\cdot 5\cdot 7$. Somit sind $\Z/(6)\cong
    \Z/(2)\oplus\Z/(3)$, $\Z/(56)\cong\Z/\left(2^3\right)\oplus\Z/(7)$
    und $\Z/(210)\cong\Z/(2)\oplus \Z/(3)\oplus\Z/(5)\oplus\Z/(7)$
    nach Korollar \ref{chin restsatz cor} (Korollar zum Chinesischen
    Restsatz) und wir erhalten
    \[G\cong\underbrace{\left(\Z/(2)\oplus \Z/(2)\oplus
        \Z/\left(2^3\right)\right)}_{=:G_1} 
    \oplus\underbrace{\left(\Z/(3)\oplus\Z/(3)\right)}_{=:G_2}
    \oplus\underbrace{\Z/(5)}_{=:G_3}
    \oplus\underbrace{\left(\Z/(7)\oplus\Z/(7)\right)}_{=:G_4}.\]
  \item Elementarteilerform: Wir ordnen die direkten Summanden um und
    erhalten
    \begin{align*}
      G\cong&\,
      \begin{array}[t]{ccccc}
        \Z/(2) &\oplus& \Z/(2) &\oplus& \Z/(8)\\
        &\oplus& \Z/(3) &\oplus& \Z/(3)\\
        && &\oplus& \Z/(5)\\
        &\oplus& \Z/(7) &\oplus& \Z/(7)\\
      \end{array}\umbruch\\
      \cong&\,\Z/(2)\oplus\Z/(2\cdot 3\cdot 7) \oplus \Z/(8\cdot
      3\cdot 5\cdot 7)\umbruch\\
      =&\,\Z/(2)\oplus\Z/(42)\oplus\Z/(840).
    \end{align*}
    Somit sind die Elementarteiler $2$, $42$ und $840$. 
  \end{enumerate}
\end{beispiel}

\Subsection{Anwendungen auf Endomorphismen von Vektorr\"aumen}

\begin{remark}[Erinnerung]
  Sei $K$ ein K\"orper, $V$ ein $K$-Vektorraum mit $\dim(V)<\infty$
  und $f\in\End_K(V)$. Dann ist die Menge $V$ mit der
  Operation \[K[t]\times V\ni(p,v)\mapsto (p(f))(v)\in V\] ein
  $K[t]$-Modul: $V_f$. 
\end{remark}

Wir wollen nun den $K[t]$-Modul $V_f$ mit unter Zuhilfenahme des
Elementarteilersatzes betrachten. 
\begin{remark}
  \label{Vf Torsion rem}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $V_f$ ist als $K[t]$-Modul endlich erzeugt: Verwende die Basis
    \"uber $K$.
  \item $V_f$ ist ein $K[t]$-Torsionsmodul: F\"ur das Minimalpolynom
    $\mu_f(t)$ gilt $\mu_f(f)=0$. Somit ist $\mu_f\cdot
    v=(\mu_f(f))(v) =0(v)=0$. Dies gilt f\"ur beliebiges $v\in V$.\par
    Ohne Verwendung von $\mu_f$ sieht man dies wie folgt: Gelte
    $K[t]\cdot v_1+\ldots+K[t]\cdot v_r=V_p$. Dann gibt es Polynome
    $p_i\in K[t]$ mit $p_iv_i=0$. Somit ist $(p_1\cdot\ldots\cdot
    p_r)v=0$ f\"ur alle $v\in V$.     
  \item Wir erinnern an die Definition des Annulatorideals (des
    Annulators) \[\Ann(V_f):=\{p\in K[t]\colon p\cdot v=0\text{ f\"ur
      alle }v\in V\}.\] Damit folgt $\Ann(V_f)=(\mu_f)$. (Es ist
    einfach zu sehen, dass es sich dabei um ein Ideal handelt.)
  \item Nach dem Elementarteilersatz f\"ur Moduln, Theorem \ref{el
      teiler satz moduln}, ist $V_f$ die direkte Summe von zyklischen
    Torsionsmoduln \"uber $K[t]$. 
  \end{enumerate}
\end{remark}

\begin{definition}
  $f\in\End_K(V)$ hei\ss{}t zyklischer Endomorphismus von $V$, falls
  der $K[t]$-Modul $V_f$ zyklisch ist. 
\end{definition}

\begin{theorem}
  \label{zykl aequiv thm}
  Sei $n=\dim(V)$, $1\le n<\infty$. Sei $f\in End_K(V)$. Dann sind die
  folgenden Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{zykl i} $f$ ist ein zyklischer Endomorphismus.
  \item\label{zykl ii} Es gibt einen Vektor $v\in V$, so dass
    $v,f(v),\ldots,f^{n-1}(v)$ eine Basis des $K$-Vektorraumes $V$
    ist.
  \item\label{zykl iii} Es gibt eine Basis von $V$, so dass $f$
    bez\"uglich dieser Basis durch die Matrix
    \[A=
    \begin{pmatrix}
      0&&&&a_0\\
      1&0&&&a_1\\
      &\ddots&\ddots&&\vdots\\
      &&1&0&a_{n-2}\\
      &&&1&a_{n-1}
    \end{pmatrix}
    \]
    mit $a_0,\ldots,a_{n-1}\in K$ dargestellt wird. Formal:
    $A=\left(a^i_j\right)_{1\le i,j\le n}$ mit $a^i_j=\delta^i_{j+1}$
    f\"ur $j<n$ und $a^i_j\in K$ beliebig f\"ur $j=n$. (Eine solche
    Matrix nennen wir eine Begleitmatrix.)
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeilealt
  \glqq\eqref{zykl i} $\Longrightarrow$ \eqref{zykl ii}\grqq:
  Da $f$ zyklisch ist, gibt es ein $v\in V$ mit $K[t]\cdot
  v=V_f$. Insbesondere gilt daher $V=\left\langle\left\{ f^i(v)\colon
      i\ge0 \right\}\right\rangle$. Wir behaupten, dass die Vektoren
  $v,f(v),\ldots,f^{n-1}(v)$ linear unabh\"angig sind. (Dann bilden
  sie aus Dimensionsgr\"unden bereits eine Basis von $V$.) Falls dies
  nicht der Fall ist, gilt $f^k(v)=\sum\limits_{i=0}^{k-1}a_jf^j(v)$
  mit $a_i\in K$ und $1\le k\le n-1$. Per Induktion erhalten wir
  daraus $f^{k+r}(v)\in\left\langle \left\{f^i(v)\colon 0\le i\le
      k-1\right\}\right\rangle=:U$ f\"ur alle $r\in\N$. Somit folgt
  $V=U$, da $f$ zyklisch ist. Dies ist aber unm\"oglich, da $k=\dim
  U<n=\dim V$ gilt. \par 
  \glqq\eqref{zykl ii} $\Longrightarrow$ \eqref{zykl iii}\grqq:
  Benutze die Basis $v,f(v),\ldots,f^{n-1}(v)$. \par 
  \glqq\eqref{zykl iii} $\Longrightarrow$ \eqref{zykl i}\grqq:
  Sei $v_0,\ldots,v_{n-1}$ die Basis in \eqref{zykl iii}. Dann gilt
  $v_i=f^i(v_0)$ f\"ur alle $1\le i\le n-1$. Somit ist $f$ zyklisch. 
\end{proof}

\begin{lemma}
  \label{begl matr det lem}
  Seien $f$ und $A$ wie in Theorem \ref{zykl aequiv thm}. Dann tauchen
  die Koeffizienten $a_i$ im charakteristischen Polynom von $f$ auf,
  sind also eindeutig durch $f$ bestimmt. 
\end{lemma}
\begin{proof}[Beweis]
  Wir entwickeln nach der ersten Zeile und erhalten
  \begin{align*}
    \det(t\eins-A)=&\, \det
    \begin{pmatrix}
      t&&&&-a_0\\
      -1&t&&&-a_1\\
      &\ddots&\ddots&&\vdots\\
      &&-1&t&-a_{n-2}\\
      &&&-1&t-a_{n-1}
    \end{pmatrix}\umbruch\\
    =&\,t\cdot
    \det
    \begin{pmatrix}
      t&&&&-a_1\\
      -1&t&&&-a_2\\
      &\ddots&\ddots&&\vdots\\
      &&-1&t&-a_{n-2}\\
      &&&-1&t-a_{n-1}
    \end{pmatrix}
    +(-a_0)\cdot\underbrace{(-1)^{n+1+n-1}}_{=1}. 
  \end{align*}
  Also folgt per Induktion
  \[\det(t\eins-A)=t^n-a_{n-1}t^{n-1}-\ldots-a_1t-a_0\]
  und somit
  \[\chi_A(t)=\det(A-t\eins)=(-1)^n\det(t\eins-a)
  =(-1)^n\left(t^n-\sum\limits_{i=0}^{n-1}a_it^i\right).\qedhere\]
\end{proof}

\begin{lemma}
  \label{zykl min poly lem}
  Sei $V$ ein $K$-Vektorraum mit $1\le\dim V<\infty$.  Sei
  $f\in\End_K(V)$ zyklisch. Sei $p\in K[t]$ das eindeutig bestimmte
  normierte Polynom so dass $V_f\cong K[t]/(p)$ mit einem
  $K[t]$-Modulisomorphismus gilt. (Solch ein $p$ existiert nach
  Theorem \ref{zyk quot iso thm} und ist aufgrund der Eindeutigkeit
  der Elementarteiler und der Normierung eindeutig bestimmt.) Dann
  gelten
  \begin{enumerate}[(i)]
  \item\label{zykel i} $p=\mu_f=\chi_f$, \dh $p$, das Minimalpolynom
    von $f$ und das charakteristische Polynom von $f$ stimmen
    \"uberein.
  \item\label{zykel ii} Ist $p=t^n+\sum\limits_{i=0}^{n-1}a_it^i$, so
    ist $f$ bez\"uglich einer geeigneten Basis durch die Matrix
    \[
    A=
    \begin{pmatrix}
      0&&&&-a_0\\
      1&0&&&-a_1\\
      &\ddots&\ddots&&\vdots\\
      &&1&0&-a_{n-2}\\
      &&&1&-a_{n-1}
    \end{pmatrix}
    \]
    dargestellt. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeilealt \eqref{zykel ii}: Da $f$ bzw.{} $V_f$ zyklisch sind,
  gibt es $v\in V$ mit $V_f=K[t]\cdot v$. Betrachte $\phi\colon
  K[t]\to V_f$ mit $q\mapsto qv$. Aufgrund des Homomorphiesatzes gilt
  $V_f\cong K[t]/\ker\phi$. Andererseits ist $V_f\cong
  K[t]/(p)$. Aufgrund der Eindeutigkeit der Elementarteiler gilt
  $\ker\phi=(p)$. Betrachten wir $K[t]/(p)$ als $K$-Vektorraum, so
  gilt $\dim_K(K[t]/(p)) =\dim_KV_f =\dim_KV=n$. Somit gilt $\deg
  p=n$. Nun ist $1,t,\ldots,t^{n-1}$ eine Basis des $K$-Vektorraumes
  $K[t]/(p)$.  Also ist auch $v,f(v),\ldots,f^{n-1}(v)$ eine Basis von
  $V$ und mit den Koeffizienten $a_i\in K$ von $p$ gilt auch
  $f^n(v)=-\sum\limits_{i=0}^{n-1} a_if^i(v)$. Wegen
  $f\left(f^{n-1}(v) \right) =f^n(v)$ l\"asst sich $f$ bez\"uglich
  dieser Basis genau durch $A$ darstellen.\par \eqref{zykel i}: Aus
  Bemerkung \ref{Vf Torsion rem} folgt dass $p$ der normierte Erzeuger
  von $\Ann(f)$ ist. Somit gilt $p=\mu_f$. In Lemma \ref{begl matr det
    lem} haben wir bereits gesehen, dass $p=\chi_f$ gilt.
\end{proof}

\begin{theorem}
  \label{char poly min poly thm}
  Sei $V$ ein $K$-Vektorraum mit $1\le\dim V<\infty$. Sei nun
  $f\in\End_K(V)$ beliebig. Seien $p_1|\ldots|p_r$ die normierten
  Elementarteiler des $K[t]$-Moduls $V_f$. Dann gelten
  $\chi_f=p_1\cdot\ldots\cdot p_r$ und $\mu_f=p_r$.
\end{theorem}
\begin{proof}[Beweis]
  Da $V_f$ zyklisch ist, gilt nach dem Elementarteilersatz
  $V_f\cong\bigoplus\limits_{j=1}^r K[t]/(p_j)$ mit einem
  Isomorphismus von $K[t]$-Moduln. Das Annulatorideal ergibt sich
  als Schnitt \"uber die Annulatorideale der einzelnen
  Summanden. Also ist $\Ann(V_f)=\bigcap\limits_{j=1}^r (p_j)=(p_r)$
  da $p_1|\ldots|p_r$. Somit ist $\mu_f=p_r$. \par
  Der Isomorphismus von $K[t]$-Moduln $V_f\cong
  \bigoplus\limits_{j=1}^r K[t]/(p_j)$ ist zugleich auch ein
  Vektorraumisomorphismus (da wir die Multiplikation auf $K$
  einschr\"anken k\"onnen und beide Seiten Vektorr\"aume sind). Er
  induziert eine Zerlegung $V=V_1\oplus\ldots\oplus V_r$ in
  $f$-invariante Unterr\"aume $V_j$, so dass $f|_{V_j}$ zyklisch ist
  und $p_j$ das Minimalpolynom ist, siehe Lemma \ref{zykl min poly
    lem}. Wir k\"onnen also $f$ mit Hilfe einer Blockmatrix
  darstellen. Die K\"astchen sehen dabei bez\"uglich einer geeigneten
  Basis so wie in Lemma \ref{zykl min poly lem} aus und ergeben
  jeweils als charakteristische Polynome die Minimalpolynome
  $p_j$. Somit ist
  \[\chi_f =\prod\limits_{i=1}^r \chi_{f|_{V_i}}
  =\prod\limits_{i=1}^rp_i.\qedhere\]   
\end{proof}

\begin{corollary}[Satz von Cayley-Hamilton]
  Sei $V$ ein $K$-Vektorraum mit $1\le\dim V<\infty$. Sei
  $f\in\End(V)$ beliebig. Dann gilt $\chi_f(f)=0$.
\end{corollary}
\begin{proof}[Beweis]
  Nach Theorem \ref{char poly min poly thm} gilt $\mu_f|\chi_f$ wie
  man direkt an den expliziten Darstellungen abliest. F\"ur das
  Minimalpolynom gilt nat\"urlich $\mu_f(f)=0$. 
\end{proof}
Dieser Beweis ist unabh\"angig vom bisherigen Beweis des Satzes von
Cayley-Hamilton. 

\begin{corollary}
  Seien $V,f$ wie in Theorem \ref{char poly min poly thm}. Dann
  stimmen die irreduziblen Faktoren von $\chi_f$ und $\mu_f$
  \"uberein. 
\end{corollary}
\begin{proof}[Beweis]
  Jeder irreduzible Faktor von $\chi_f$ teilt ein $p_i$ in der
  Notation von Theorem \ref{char poly min poly thm}, also wegen
  $p_1|\ldots|p_r$ auch $\mu_f=p_r$. 
\end{proof}

\begin{corollary}
  Seien $V,f$ wie in Theorem \ref{char poly min poly thm}. Dann ist
  $f$ genau dann zyklisch, wenn $\chi_f=\mu_f$ gilt.\par Zerf\"allt
  $\chi_f$ in Linearfaktoren (z.\,B.{} f\"ur $K=\C$, siehe
  Funktionentheorie), so sind die folgenden Bedingungen \"aquivalent.
  \begin{enumerate}[(i)]
  \item Es gilt $\chi_f=\mu_f$. 
  \item Alle Eigenr\"aume von $f$ sind eindimensional.
  \item Jede $f$ darstellende Jordanmatrix hat zu jedem Eigenwert nur
    einen Jordanblock.
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  \neueZeilealt \Hinrichtung Sei $f$ zyklisch.  Nach Korollar
  \ref{zykl ein elteiler cor} ist $f$ genau dann zyklisch, wenn $V_f$
  maximal einen Elementarteiler besitzt. (Aus Theorem \ref{char poly
    min poly thm} folgt aber insbesondere, dass $V_f$ mindestens einen
  Elementarteiler besitzt: Betrachte das charakteristische Polynom.)
  Theorem \ref{char poly min poly thm} impliziert nun
  $\chi_f=\mu_f$. \par
  \Rueckrichtung Ist $\chi_f=\mu_f$, so besitzt $V_f$ genau einen
  Elementarteiler, ist also zyklisch.\par
  Die weiteren \"Aquivalenzen sind einfach zu sehen.
\end{proof}

\begin{remark}
  Mit Hilfe des Elementarteilersatzes k\"onnen wir einen Beweis f\"ur
  die Existenz der Jordanschen Normalform geben der statt expliziter
  Konstruktionen Modultheorie verwendet. \par
  Seien $f,V$ wie in Theorem \ref{char poly min poly thm}. Zerfalle
  $\chi_f$ in Linearfaktoren. Nach Theorem \ref{p primaer thm}
  gen\"ugt es, einen prim\"aren Summanden von $V_f$ und aufgrund des
  Beweises sogar, einen zyklischen Summanden zu betrachten und zu
  zeigen, dass dieser ein Jordank\"astchen liefert. Der Vektorraum $V$
  l\"asst sich genauso als Summe schreiben. Sei also ohne
  Einschr\"ankung $V_f$ ein zyklischer prim\"arer $K[t]$-Modul. Da
  $\chi_f$ in Linearfaktoren zerf\"allt gilt $V_f\cong
  K[t]/((t-\lambda)^n)$ f\"ur ein $n\ge1$ und ein $\lambda\in K$. Da
  $V_f$ zyklisch ist, gibt es ein $v\in V$ mit $V_f=K[t]\cdot
  v$. Definiere $v_j:=(t-\lambda)^jv=(f-\lambda\eins)^j(v)$ f\"ur
  $j=0,\ldots,n-1$. Nun bilden $v_0,\ldots,v_{n-1}$ eine
  Vektorraumbasis von $V$, da die \"Aquivalenzklassen von
  $1,t-\lambda,(t-\lambda)^2,\ldots,(t-\lambda)^{n-1}$ eine
  Vektorraumbasis von $K[t]/((t-\lambda)^n)$ bilden. Wir wollen nun
  die Basis $v_{n-1},\ldots,v_1,v_0=v$ benutzen. Es gilt
  \begin{align*}
    (f-\lambda)(v_j)=&\,v_{j+1}\quad\text{f\"ur }1\le j\le n-2
    \intertext{sowie}
    (f-\lambda)(v_{n-1})=&\,0. 
  \end{align*}
  Somit ist $f-\lambda$ bez\"uglich dieser Basis durch die linke
  Matrix und $f$ durch die rechte Matrix in
  \[
  \begin{pmatrix}
    0&1&&&\\
    &0&1&&\\
    &&\ddots&\ddots&\\
    &&&0&1\\
    &&&&0
  \end{pmatrix},
  \qquad
  \begin{pmatrix}
    \lambda&1&&&\\
    &\lambda&1&&\\
    &&\ddots&\ddots&\\
    &&&\lambda&1\\
    &&&&\lambda
  \end{pmatrix}
  \]
  dargestellt, wobei s\"amtliche fehlende Eintr\"age Nullen sind. Dies
  ist genau ein Jordank\"astchen. \hfill $\Box$
\end{remark}

\iffalse
\Section{Teilbarkeit}
\Subsection{Teilbarkeit}
In diesem Kapitel werden wir insbesondere wichtige Eigenschaften von
Primzahlen zeigen. Wir benutzen \cite{BoschLA}.
\begin{definition}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ein Integrit\"atsring ist ein kommutativer Ring $R$ mit Eins
    in dem aus $a\cdot b=0$, $a,b\in R$, stets $a=0$ oder $b=0$ folgt
    (nullteilerfrei).
  \item Ein Element $a\in R$ hei\ss{}t Einheit, falls es $b\in R$ mit
    $ab=e$ gibt. Wir schreiben $R^*$ f\"ur die Menge der Einheiten in
    $R$. 
  \end{enumerate}
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $F$ ein K\"orper. Dann ist $F[X]$ ein Integrit\"atsring.
  \item $\Z$ ist ein Integrit\"atsring. 
  \end{enumerate}
\end{beispiele}

\begin{definition}[Euklidischer Ring]
  Ein Integrit\"atsring hei\ss{}t euklidischer Ring, wenn es eine
  Gradfunktion $\delta\colon R\setminus\{0\}\to\N$ gibt, so dass es zu
  $a,b\in R$ mit $b\neq0$ (nicht notwendigerweise eindeutig bestimmte)
  Elemente $q,r\in R$ mit $a=qb+r$ und ($r=0$ oder
  $\delta(r)<\delta(b)$) gibt. 
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}
  \item Sei $F$ ein K\"orper. Dann ist $F[X]$ ein euklidischer Ring
    mit der Gradfunktion $\delta=\deg$. Dies ist eine Folgerung aus
    der Polynomdivision.
  \item $\Z$ mit Absolutbetrag ist ein euklidischer Ring. \"Ubung.  
  \end{enumerate}
\end{beispiele}

\begin{definition}[Hauptidealring]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $R$ ein kommutativer Ring. Sei $a\in R$. Dann
    ist \[(a)=Ra:=\{ra\colon r\in R\}\] ein Ideal (\"Ubung), das von
    $a$ erzeugte Hauptideal. Ein Ideal $I\subset R$ mit $(a)=I$ f\"ur
    ein $a\in R$ hei\ss{}t (das von $a$ erzeugte) Hauptideal.
  \item Ein Integrit\"atsring $R$ hei\ss{}t Hauptidealring, wenn jedes
    Ideal $I\subset R$ ein Hauptideal ist. 
  \end{enumerate}
\end{definition}

\begin{theorem}
  Sei $R$ ein euklidischer Ring. Dann ist $R$ ein Hauptidealring. 
\end{theorem}
\begin{proof}[Beweis]
  Sei $\mathfrak a\subset R$ ein Ideal. Wegen $(0)=\{0\}$ d\"urfen wir
  ohne Einschr\"ankung annehmen, dass $\mathfrak a$ nicht das
  Nullideal ist. Sei $a\in\mathfrak a\setminus\{0\}$ ein beliebiges
  Element mit minimalem Grad. Wir behaupten, dass dann $\mathfrak
  a=(a)$ gilt. Die Inklusion $(a)\subset\mathfrak a$ ist klar. Sei
  also $b\in\mathfrak a$ beliebig. Da $R$ ein euklidischer Ring ist,
  gibt es $p,r\in R$ mit $b=pa+r$ und ($r=0$ oder
  $\delta(r)<\delta(a)$). Der zweite Fall ist ausgeschlossen, da
  $r=b-pa$ der Minimalit\"at von $a$ widerspricht. Also gilt
  $b=pa$. Die Behauptung folgt. 
\end{proof}

\begin{corollary}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $\Z$ ist ein Hauptidealring. 
  \item Sei $F$ ein K\"orper. Dann ist $F[X]$ ein Hauptidealring. 
  \end{enumerate}
\end{corollary}

\begin{definition}
  Sei $R$ ein Integrit\"atsring. Seien $a,b\in R$.
  \begin{enumerate}[(i)]
  \item $a$ teilt $b$ oder $a$ ist ein Teiler von $b$, wenn es ein
    $c\in R$ mit $ac=b$ gibt. Wir schreiben $a|b$. Ist $a$ kein Teiler
    von $b$ so schreiben wir $a\nmid b$. 
  \item $a$ und $b$ hei\ss{}en assoziiert, wenn es eine Einheit $c\in
    R^*$ mit $ac=b$ gibt. 
  \end{enumerate}
\end{definition}

\begin{lemma}
  Sei $R$ ein Integrit\"atsring. Seien $a,b\in R$. Dann sind die
  folgenden Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item $a|b$,
  \item $b\in(a)$,
  \item $(b)\subset(a)$. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \"Ubung. 
\end{proof}

\begin{lemma}\label{assoz aequiv lem}
  Sei $R$ ein Integrit\"atsring. Seien $a,b\in R$. Dann sind die
  folgenden Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item $a|b$ und $b|a$,
  \item\label{assoz ii} $(a)=(b)$,
  \item\label{assoz iii} $a$ und $b$ sind assoziiert. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  Wir zeigen nur \glqq\eqref{assoz ii}$\Longrightarrow$\eqref{assoz
    iii}\grqq{} und lassen den Rest als \"Ubungsaufgabe. \par
  Gelte $(a)=(b)$. Dann gibt es $c,d\in R$ mit $ac=b$ und $a=bd$.  Ist
  $a=0$, so folgt auch $b=0$. Nehme daher ab jetzt $a\neq0$ an.  Es
  folgt $a=bd=acd$ oder $a(1-cd)=0$. Wegen $a\neq0$ folgt $cd=1$, da
  $R$ ein Integrit\"atsring ist. Also sind $c$ und $d$ Einheiten,
  $c,d\in R^*$. Somit sind $a$ und $b$ assoziiert. 
\end{proof}

\begin{definition}
  Sei $R$ ein Integrit\"atsring und $p\in R\setminus(R^*\cup\{0\})$.
  \begin{enumerate}[(i)]
  \item $p$ hei\ss{}t irreduzibel, wenn aus $p=ab$ mit $a,b\in R$
    stets folgt, dass $a$ oder $b$ eine Einheit in $R$ ist. Sonst
    hei\ss{}t $p$ reduzibel.
  \item $p$ hei\ss{}t prim oder Primelement, wenn aus $p|ab$ stets
    $p|a$ oder $p|b$ folgt. Dies ist \"aquivalent dazu, dass f\"ur
    $\mathfrak p:=(p)$ aus $ab\in\mathfrak p$ stets $a\in\mathfrak p$
    oder $b\in\mathfrak p$ folgt. (Somit ist $p$ genau dann ein
    Primelement, wenn das Ideal $(p)$ ein Primideal ist.)
  \end{enumerate}
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item $p\in R\setminus(R^*\cup\{0\})$ ist genau dann irreduzibel,
    wenn aus $p\in(a)$ f\"ur $a\in R$ stets $(a)=(p)$ oder $(a)=R$
    folgt.
  \item Sei $p\in R$ prim. Dann teilt $p$ ein Produkt
    $a_1\cdot\ldots\cdot a_k$ von Elementen $a_i\in R$ genau dann,
    wenn es einen der Faktoren teilt. 
  \end{enumerate}
\end{remark}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item \Hinrichtung Sei $p$ irreduzibel und gelte $p\in(a)$. Dann
    gibt es $r\in R$ mit $p=ar$. Somit ist $a$ oder $r$ eine
    Einheit. Ist $a$ eine Einheit, so folgt $(a)=R$. Ist $r$ eine
    Einheit, so folgt $(a)=(p)$. \par
    \Rueckrichtung Sei $p\in R\setminus(R^*\cup\{0\})$ beliebig. Gelte
    $p=ab$. Es folgt $p\in(a)$. Somit gilt $(a)=(p)$ oder $(a)=R$. Im
    ersten Fall erhalten wir $p=ar$ mit $r\in R^*$. Wegen $a\neq0$
    (sonst w\"are auch $p=0$) erhalten wir $b=r\in R^*$. Im zweiten
    Fall gilt $(a)=R$. Also ist $a$ eine Einheit.
  \item Induktion nach der Anzahl der Faktoren. \qedhere
  \end{enumerate}
\end{proof}

\begin{lemma}\label{prim irred lem}
  Sei $R$ ein Integrit\"atsring. Dann ist jedes Primelement auch
  irreduzibel. 
\end{lemma}
\begin{proof}[Beweis]
  Sei $p\in R$ prim und seien $a,b\in R$ mit $p=ab$. Aus $p|ab$ folgt
  $p|a$ oder $p|b$, ohne Einschr\"ankung $p|a$. Daher gibt es $c\in R$
  mit $a=pc$. Es folgt $p=ab=pcb$ oder $p(1-cb)=0$. Da $R$ ein
  Integrit\"atsring ist, folgt $1=cb$. Somit ist $b$ eine
  Einheit. Daher ist $p$ irreduzibel. 
\end{proof}

\"Ublicherweise ist die Definition einer Primzahl die Definition einer
irreduziblen Zahl. Dies ist aber folgenlos, da in Hauptidealringen
Primelemente gerade irreduzible Elemente sind. 
\begin{theorem}\label{irred prim haupt ideal ring thm}
  Sei $R$ ein Hauptidealring. Sei $p\in
  R\setminus(R^*\cup\{0\})$. Dann sind die folgenden Aussagen
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{prim irred thm i} $p$ ist irreduzibel,
  \item\label{prim irred thm ii} $p$ ist prim. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  Nach Lemma \ref{prim irred lem} brauchen wir nur \glqq\eqref{prim
    irred thm i}$\Longrightarrow$\eqref{prim irred thm ii}\grqq{} zu
  zeigen. \par Sei $p\in R$ irreduzibel. Seien $a,b\in R$. Gelte
  $p|ab$ und $p\nmid a$. Wir wollen $p|b$ zeigen. Betrachte das
  Ideal \[Ra+Rp:=\{ra +sp\colon r,s\in R\}.\] Dies ist ein Ideal:
  \"Ubung. Da $R$ ein Hauptidealring ist, gilt $Ra+Rp=Rd=(d)$ f\"ur
  ein $d\in R$. Es folgt $a,p\in Rd$ und daher $d|a$ sowie
  $d|p$. Wegen $d|p$ gibt es $c\in R$ mit $p=cd$. $p$ ist
  irreduzibel. Somit ist $c$ oder $d$ eine Einheit. \par
  Ist $c$ eine Einheit, so folgt $d=c^{-1}p$. Wegen $d|a$ erhalten wir
  auch $p|a$. Widerspruch. \par Also ist $d$ eine Einheit. Es folgt
  $Ra+Rp=Rd=R$. Daher gibt es $r,s\in R$ mit $ra+sp=1$. Weiterhin gilt
  $rab+spb=b$. Wegen $p|ab$ und $p|spb$ folgt $p|b$. 
\end{proof}

\begin{corollary}\label{haupt ideal ring prim zerl cor}
  Sei $R$ ein Hauptidealring. Sei $a\in
  R\setminus(R^*\cup\{0\})$. Dann ist $a$ ein endliches Produkt von
  Primelementen. 
\end{corollary}
\begin{proof}[Beweis]
  Nach Theorem \ref{irred prim haupt ideal ring thm} gen\"ugt es, eine
  Faktorisierung von $a$ in irreduzible Elemente herzuleiten. Nehme
  an, die Behauptung w\"are falsch, \dh wir k\"onnten $a$ nicht als
  endliches Produkt von irreduziblen Elementen schreiben. Dann ist $a$
  selber insbesondere nicht irreduzibel. Somit gibt es Elemente
  $a_1,a_1'\in R\setminus R^*$ mit $a=a_1a_1'$. Wir haben angenommen,
  dass sich $a$ nicht als endliches Produkt von irreduziblen Elementen
  darstellen l\"asst. Somit muss dies mindestens f\"ur einen der
  Faktoren $a_1$ oder $a_1'$ ebenfalls gelten, ohne Einschr\"ankung
  f\"ur $a_1$. Wir k\"onnen nun $a_1$ als Produkt von zwei
  nicht-Einheiten $a_2,a_2'\in R\setminus R^*$ schreiben. Dies kann
  man fortsetzen und erh\"alt eine Folge \[a=a_0,a_1,a_2,\ldots\in
  R.\] Dabei gilt jeweils $a_{i+1}|a_i$, aber $a_{i+1}$ und $a_i$ sind 
  nicht assoziiert. Wir erhalten also eine aufsteigende Folge von
  Idealen \[(a)=(a_0)\subsetneq (a_1)\subsetneq (a_2)\subsetneq
  \ldots,\] wobei die strikte Inklusion nach Lemma \ref{assoz aequiv
    lem} gilt, da $a_{i+1}$ und $a_i$ nicht assoziiert sind. Setze nun
  $\mathfrak b:=\bigcup\limits_{i=1}^\infty(a_i)$. Da eine beliebige
  Vereinigung von aufsteigenden Idealen wieder ein Ideal ist und da
  $R$ ein Hauptidealring ist, folgt $\mathfrak b=(b)$ f\"ur ein $b\in
  R$. Nach Definition von $\mathfrak b$ gilt $b\in(a_{i_0})$ f\"ur ein
  $i_0\in\N$. Wir erhalten \[\mathfrak b =(b) \subset (a_{i_0})
  \subsetneq (a_{i_0+1})\subset \mathfrak b.\] Widerspruch. Die
  Behauptung folgt. 
\end{proof}

F\"ur $R=\Z$ kann man auch einen direkten Beweis f\"uhren. 

\begin{lemma}\label{prim zerl eind lem}
  Sei $R$ ein Integrit\"atsring. Seien $p_1,\ldots,p_r\in
  R\setminus(R^*\cup\{0\})$ prim und $q_1,\ldots,q_s\in
  R\setminus(R^*\cup\{0\})$ irreduzibel. Gilt \[p_1\cdot\ldots\cdot
  p_r =q_1\cdot\ldots\cdot q_s,\] so folgt $r=s$ und nach
  Umnummerierung der Elemente $q_1,\ldots,q_r$ gibt es Einheiten
  $\epsilon_1,\ldots,\epsilon_r\in R^*$, so dass $q_i=\epsilon_ip_i$
  f\"ur alle $1\le i\le r$ gilt.
\end{lemma}
\begin{proof}[Beweis]
  Aus $p_1\cdot\ldots\cdot p_r=q_1\cdot\ldots\cdot q_s$ folgt
  insbesondere $p_1|q_1\cdot\ldots\cdot q_s$. Da $p_1$ prim ist, gibt
  es ein $i$, $1\le i\le s$, mit $p_1|q_i$, ohne Einschr\"ankung nach
  Umnummerierung $i=1$: $p_1|q_1$. Es gilt also $q_1=\epsilon_1p_1$
  f\"ur ein $\epsilon_1\in R$. Da $q_1$ irreduzibel ist, ist
  $\epsilon_1$ eine Einheit. Da $R$ ein Integrit\"atsring ist,
  folgt \[p_2\cdot\ldots p_r =\epsilon_1\cdot q_2\cdot\ldots\cdot
  q_s.\] Fahren wir wie oben fort, so erhalten
  wir \[1=\epsilon_1\cdot\ldots\cdot\epsilon_r\cdot
  q_{r+1}\cdot\ldots\cdot q_s.\] Alle Faktoren $q_{r+1},\ldots,q_s$
  m\"ussen somit Einheiten sein. Somit gilt $r=s$ und die Behauptung
  folgt.
\end{proof}

\begin{definition}
  Ein Integrit\"atsring $R$ hei\ss{}t faktoriell, wenn sich jedes
  Element von $R\setminus(R^*\cup\{0\})$ als Produkt von Primelementen
  in $R$ schreiben l\"asst.
\end{definition}

\begin{remark}
  Die Produktdarstellung eines Elementes in $R\setminus(R^*\cup\{0\})$
  ist nach Lemma \ref{prim zerl eind lem} bis auf Einheiten eindeutig,
  da Primelemente irreduzibel sind.
\end{remark}

\begin{lemma}
  Sei $R$ ein faktorieller Ring. Sei $d\in R$ irreduzibel. Dann ist
  $d$ prim.
\end{lemma}
\begin{proof}[Beweis]
  Gelte $d|ab$. Schreibe $d=d_1\cdots d_r$, $a=a_1\cdots a_s$ und
  $b=b_1\cdots b_t$ jeweils als Produkt von Primelementen. Dies ist
  nach Definition eines faktoriellen Ringes m\"oglich. Da $d$
  irreduzibel ist, tritt in der Produktdarstellung von $d$ mit
  Primelementen, also auch irreduziblen Elementen (Lemma \ref{prim
    irred lem}), nur ein Faktor auf, der keine Einheit ist. Sei also
  ohne Einschr\"ankung $r=1$. Lemma \ref{prim irred lem} liefert, dass
  alle $d_i$, $a_i$ und $b_i$'s auch irreduzibel sind, da sie prim
  sind. Nach Lemma \ref{prim zerl eind lem} ist $d_1$ zu einem $a_i$
  oder $b_i$ assoziert. Daher folgt entweder $d|a$ oder $d|b$. Somit
  ist $d$ prim. 
\end{proof}

Korollar \ref{haupt ideal ring prim zerl cor} liefert
\begin{theorem}
  Jeder Hauptidealring ist faktoriell, insbesondere also
  \begin{enumerate}[(i)]
  \item $\Z$,
  \item $F[X]$ f\"ur einen K\"orper $F$. 
  \end{enumerate}
\end{theorem}

\begin{remark}
  Sei $R$ ein faktorieller Ring. Zerlege die Menge der Primelemente in
  $R\setminus(R^*\cup\{0\})$ in \"Aquivalenzklassen assoziierter
  Elemente und w\"ahle jeweils einen Vertreter. Sei $P$ die Menge
  dieser Vertreter. Dann gibt es zu jedem $a\in R\setminus\{0\}$ eine
  Darstellung der Form \[a=\epsilon\prod\limits_{p\in P} p^{n(p)}\]
  mit $\epsilon\in R^*$ und $n(p)\in\N$, wobei das Produkt endlich
  ist. \par
  In $\Z$ w\"ahlt man f\"ur $P$ die Menge der Primelemente
  gr\"o\ss{}er als Eins, die Primzahlen, und erh\"alt die \"ubliche
  Primfaktorzerlegung. $\pm1$ sind die einzigen Einheiten.\par
  Die Einheiten in $F[X]$ sind $F\setminus\{0\}\subset F[X]$. Wir
  w\"ahlen daher $P$ als die Menge der normierten Primpolynome, \dh
  die Menge der Primpolynome in $F[X]\setminus((F[X])^*\cup\{0\})$,
  deren h\"ochster Koeffizient $1$ ist. \par
  Nach Wahl einer Vertretermenge $P$ k\"onnen wir zu \[0\neq
  a=\epsilon\prod\limits_{p\in P}p^{\mu_p} \quad\text{und}\quad 0\neq
  b=\delta\prod\limits_{p\in P}p^{\nu_p}\] den gr\"o\ss{}ten
  gemeinsamen Teiler \[\ggT(a,b)=\prod\limits_{p\in
    P}p^{\min\{\mu_p,\nu_p\}}\] und das kleinste gemeinsame
  Vielfache \[\kgV(a,b)=\prod\limits_{p\in P}p^{\max\{\mu_p,\nu_p\}}\]
  definieren. Da die Elemente von $P$ nur bis auf Einheiten eindeutig
  sind, sind $\ggT$ und $\kgV$ ebenfalls nur bis auf Einheiten
  wohldefiniert. \par Den gr\"o\ss{}ten gemeinsamen Teiler kann man
  auch mit Hilfe von Idealen charakterisieren. Setze \[Ra+Rb:=
  \{ra+sb\colon r,s\in R\}.\] Man \"uberpr\"uft direkt, dass dies ein
  Ideal ist. Der Bezug zum $\ggT$ folgt aus dem folgenden Theorem.
\end{remark}

\begin{theorem}\label{ggT darstellbar thm}
  Sei $R$ ein Hauptidealring.
  Seien $a,b\in R\setminus\{0\}$. Dann gilt \[Ra+Rb=Rd
  \quad\text{mit}\quad d=\ggT(a,b).\] Insbesondere gibt es Elemente
  $r,s\in R$ mit $ra+sb=d$. Es gilt $\ggT(r,s)=1$. 
\end{theorem}
\begin{proof}[Beweis]
  Das Ideal $Ra+Rb\subset R$ ist ein Hauptideal. Gelte ohne
  Einschr\"ankung $Ra+Rb=Rd'$. Aus $a,b\in Rd'$ folgen $d'|a$ und
  $d'|b$. Somit gilt auch $d'|d$. Wegen $Ra+Rb=Rd'$ gibt es
  andererseits $r,s\in R$ mit $ra+sb=d'$. Somit teilt jeder gemeinsame
  Teiler von $a$ und $b$ auch $d'$, es gilt also insbesondere
  $d|d'$. Aus $d'|d$ und $d|d'$ folgt, dass $d$ und $d'$ assoziiert
  sind. Also gilt die behauptete Gleichung $Ra+Rb=Rd'=Rd$. Somit gibt
  es $r,s\in R$ mit $ra+sb=d$. Sei $t$ ein Teiler von $a$ und
  $b$. Dann teilt $t\cdot\ggT(r,s)$ auch $d$. Setzt man insbesondere
  $t=d$, so erh\"alt man, dass $\ggT(r,s)$ eine Einheit ist. Also
  folgt $\ggT(r,s)=1$.
\end{proof}

\begin{corollary}
  Sei $R$ ein Hauptidealring. Sei $p\in
  R\setminus(R^*\cup\{0\})$. Dann sind die folgenden Aussagen
  \"aquivalent:
  \begin{enumerate}[(i)]
  \item $p$ ist prim.
  \item Der Restklassenring $R/(p)$ ist ein K\"orper. 
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(a)]
  \item Sei $p$ prim. Sei $a\not\in(p)$, gelte also $p\nmid a$. Direkt
    nach Definition folgt dann $\ggT(p,a)=1$. Nach Theorem \ref{ggT
      darstellbar thm} folgt also, dass $(p)\subset R$ maximal
    ist. Somit ist $R/(p)$ ein K\"orper.
  \item Sei $p$ nicht prim. Dann gibt es $a,b\in R$ mit $p|ab$ aber
    $p\nmid a$ und $p\nmid b$. Daher folgt f\"ur die Restklassen in
    $R/(p)$ sowohl $\bar a\bar b=0$ als auch $\bar a\neq0$ und $\bar
    b\neq0$. In einem K\"orper gibt es aber keine Nullteiler. Somit
    ist $R/(p)$ kein K\"orper. \qedhere
  \end{enumerate}
\end{proof}

\begin{remark}
  Sei $F$ ein K\"orper. Sei $\phi\colon\Z\to F$ der Ringhomomorphismus
  mit $\phi(1)=1$. Definiere die Charakteristik von $F$ als die
  kleinste Zahl $c$ gr\"o\ss{}er als $0$ mit $\phi(c)=0$ und als $0$,
  falls es keine solche Zahl gibt.\par Analog zum obigen Beweis sieht
  man, das die Charakteristik eines K\"orpers $0$ oder eine Primzahl
  ist. 
\end{remark}

Die folgenden Beispiele werden in der Algebra noch vertieft behandelt.
\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $p\in\Z$. Dann ist der Restklassenring $\Z/p\Z$ genau dann
    ein K\"orper, wenn $p$ prim ist. 
  \item Sei $F$ ein K\"orper. Sei $f\in F[X]$. Dann ist $F[X]/(f)$
    genau dann ein K\"orper, wenn $f$ prim ist.
    \begin{align*}
      F[X]/(X-1)\cong&\,F,\\
      \R[X]/\left(X^2+1\right)\cong&\,\C.\\
    \end{align*}
    Es gibt einen zu $\Q[X]/(X^2-3)$ isomorphen K\"orper $K$ (isomorph
    hei\ss{}t hier: als Ring mit Eins isomorph) mit
    \[\Q\subsetneq K\subsetneq\R.\]
    Beweis: \"Ubung. 
  \end{enumerate}
\end{beispiele}

\Section{Das Tensorprodukt}
Tensorprodukte definiert man nicht nur f\"ur Vektorr\"aume, sondern
\zB auch f\"ur Moduln \"uber Ringen. Sei $F$ ein fixierter K\"orper
und alle Vektorr\"aume seien $F$-Vektorr\"aume.
\Subsection{Definition und Existenz}
\begin{definition}\label{def tensor prod}
  Seien $E_1,\ldots,E_n,V$ Vektorr\"aume. Sei $L^n(E_1,\ldots,E_n;V)$
  der Vektorraum der multilinearen Abbildungen \[\phi\colon
  E_1\times\ldots\times E_n\to V.\] Wir schreiben $L^1(E_1;V) \equiv
  L(E_1,V) \equiv \Hom(E_1,V)$. Ein Vektorraum $W$ mit einer
  multilinearen Abbildung $\tau\colon E_1\times\ldots\times E_n\to W$
  hei\ss{}t Tensorprodukt von $E_1,\ldots,E_n$,
  \[W=E_1\otimes\ldots\otimes E_n,\] falls die folgende Eigenschaft
  erf\"ullt ist: Sei $V$ ein beliebiger Vektorraum. Zu jeder
  multilinearen Abbildung $\phi\in L^n(E_1,\ldots,E_n;V)$, $\phi\colon
  E_1\times\ldots\times E_n\to V$, gibt es eine eindeutig bestimmte
  lineare Abbildung $\Phi\colon E_1\otimes\ldots\otimes E_n\to V$, so
  dass das Diagramm
  \[\xymatrix{E_1\times\ldots\times
    E_n\ar[rr]^-\tau \ar[dr]_-\phi&&E_1\otimes\ldots\otimes
    E_n\ar[dl]^-\Phi\\ & V&}\] kommutiert.
\end{definition}

\begin{theorem}
  Das Tensorprodukt ist, falls es existiert, bis auf einen
  Isomorphismus eindeutig bestimmt.
\end{theorem}
\begin{proof}[Beweis]
  W\"are $\langle\tau(E_1\times\ldots\times E_n)\rangle\subsetneq
  E_1\otimes\ldots\otimes E_n$, so k\"onnte $\Phi$ nicht eindeutig
  bestimmt sein. \par Seien $\tau\colon E_1\times\ldots\times E_n\to
  E_1\otimes\ldots\otimes E_n$ und $\theta\colon E_1\times\ldots\times
  E_n\to W$ zwei Tensorprodukte. Wenden wir die definierende
  Eigenschaft des Tensorproduktes an, so erhalten wir lineare
  Abbildungen $\Theta\colon E_1\otimes\ldots\otimes E_n\to W$ mit
  $\theta=\Theta\circ\tau$ und $T\colon W\to E_1\otimes\ldots\otimes
  E_n$ mit $\tau=T\circ\theta$. Also erhalten wir $\theta=\Theta\circ
  T\circ\theta$ und $\tau=T\circ\Theta\circ\tau$. Ein beliebiges
  Element in $E_1\otimes\ldots\otimes E_n$ k\"onnen wir wegen $\langle
  \tau(E_1\times\ldots\times E_n)\rangle =E_1\otimes\ldots\otimes E_n$
  in der Form $\sum\limits_{i=1}^m\lambda^i\tau(v_i)$ mit
  $\lambda_i\in F$, $v_i\in E_1\times\ldots\times E_n$ f\"ur ein
  $m\in\N$ darstellen. Da $T$ und $\Theta$ linear sind, erhalten
  wir \[\sum\limits_{i=1}^m \lambda^i\tau(v_i) =
  \sum\limits_{i=1}^m\lambda^i T\circ\Theta\circ\tau(v_i)
  =T\circ\Theta\left(\sum\limits_{i=1}^m \lambda^i\tau(v_i)\right).\]
  Da $\sum\lambda^i\tau(v_i)$ ein beliebiges Element in
  $E_1\otimes\ldots\otimes E_n$ ist, erhalten wir
  $T\circ\Theta=\id$. Analog erhalten wir $\Theta\circ T=\id$.  $T$
  und $\Theta$ sind damit die gesuchten Isomorphismen.
\end{proof}
Somit werden wir nachfolgend stets von dem Tensorprodukt sprechen und
das nachfolgend Konstruierte meinen. 

\begin{theorem}
  Seien $E_1,\ldots,E_n$ Vektorr\"aume. Dann existiert das
  Tensorprodukt \[\tau\colon E_1\times\ldots\times E_n\to W.\]
\end{theorem}
\begin{proof}[Beweis]
  Seien $e_{v_1,\ldots,v_n}$ f\"ur beliebige $v_i\in E_i$, $1\le i\le
  n$, die Basis eines (hochdimensionalen) Vektorraumes $\mathcal
  W$. Auf $\mathcal W$ definieren wir eine \"Aquivalenzrelation $R$,
  die durch
  \begin{align*}
    e_{v_1,\ldots,v_i+w_i,\ldots,v_n}\sim&\,
    e_{v_1,\ldots,v_i,\ldots,v_n} +e_{v_1,\ldots,w_i,\ldots,v_n},
    \quad 1\le i\le n,
    \intertext{und}
    \lambda e_{v_1,\ldots,v_i,\ldots,v_n}\sim&\, e_{v_1,\ldots,\lambda
        v_i,\ldots,v_n}, \quad 1\le i\le n
  \end{align*}
  erzeugt ist. Dann ist $W:=\mathcal W/R$ ein Vektorraum
  (\"Ubung). Wir schreiben $v_1\otimes\ldots\otimes v_n$ f\"ur
  $[e_{v_1,\ldots,v_n}]$. Setze
  $\tau(v_1,\ldots,v_n):=v_1\otimes\ldots\otimes v_n$. Es gilt
  (exemplarisch nur f\"ur den Fall $n=2$ aufgeschrieben)
  \begin{align*}
    (v_1+v_2)\otimes w=&\,v_1\otimes w+v_2\otimes w,\\
    v\otimes(w_1+w_2)=&\,v\otimes w_1+v\otimes w_2,\\
    (\lambda v)\otimes w=&\,\lambda(v\otimes w) =v\otimes(\lambda w).
  \end{align*}
  Somit bilden die Elemente \[a_{1,k_1}\otimes\ldots\otimes
  a_{n,k_n}\] eine Basis von $E_1\otimes\ldots\otimes E_n$, falls die
  Vektoren $(a_{i,k})_k$ eine Basis von $E_i$, $1\le i\le n$, bilden.
  Dies folgt im Fall von zwei Vektorr\"aumen mit Hilfe der von den
  multilinearen Abbildungen
  \begin{align*}
    \phi^{i_0,j_0}\colon E_1\times E_2\to &\,W\\
    (a_i,a_j)\mapsto&\,\delta^{i_0}_i\delta^{j_0}_j
    \intertext{nach Definition des Tensorproduktes induzierten
      linearen Abbildung} 
    \Phi^{i_0,j_0}\colon E_1\otimes E_2\to &\,W. 
  \end{align*}
  Beachte dabei, dass die Basisaussage f\"ur den Rest des
  Existenzbeweises nicht gebraucht wird.\par
  Achtung: Allgemeine Elemente in $E_1\otimes\ldots\otimes E_n$ sind
  endliche Summen von Elementen der Form \[v_1\otimes\ldots\otimes
  v_n,\] $v_i\in E_i$, $1\le i\le n$, sogenannten reinen oder
  einfachen Tensoren, und nicht nur solche Elemente. \par Sei $V$ ein
  beliebiger Vektorraum. Sei $\phi\colon E_1\times\ldots\times E_n\to
  V$ eine beliebige multilineare Abbildung. Definiere $\Phi\colon
  E_1\otimes\ldots\otimes E_n\to V$ durch
  \[\Phi(v_1\otimes\ldots\otimes v_n):=\phi(v_1,\ldots,v_n)\] 
  und lineare Fortsetzung. Da die \"Aquivalenzrelation $R$
  entsprechend der Multilinearit\"at definiert ist, ist $\Phi$ eine
  wohldefinierte lineare Abbildung (\"Ubung). $\phi=\Phi\circ\tau$
  gilt nach Konstruktion. Da $E_1\otimes\ldots\otimes E_n$ von
  $\im\tau$ erzeugt ist, ist $\Phi$ eindeutig definiert.
\end{proof}

\begin{theorem}
  Seien $U,V,W$ Vektorr\"aume. Dann gibt es die folgenden
  Isomorphismen
  \[L(U,L(V,W))\cong L^2(U,V;W) \cong L(U\otimes V,W).\] 
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $f\in L^2(U,V;W)$. Wir wollen $f$ zun\"achst auf ein
    Element in $L(U,L(V,W))$ abbilden. Sei $x\in U$. Dann setzen wir
    $(g(x))(y):=f(x,y)$ f\"ur $y\in V$. Die Abbildung
    $y\mapsto(g(x))(y)$ ist linear. Weiterhin ist $U\ni x\mapsto
    g(x)\in L(V,W)$, linear.
  \item Sei nun $\phi\in L(U,L(V,W))$. Dann ordnen wir der Abbildung
    $\phi$ eine Abbildung $f\in L^2(U,V;W)$
    verm\"oge \[f(x,y):=(\phi(x))(y)\] zu. $f$ ist bilinear. Die
    Abbildung $\phi\mapsto f$ ist linear. Au\ss{}erdem ist sie zu der
    obigen Abbildung $f\mapsto g$ invers.
  \item Definiere $L^2(U,V;W)\to L(U\otimes V;W)$ durch $\phi\mapsto
    \Phi$ mit den Bezeichnungen aus Definition \ref{def tensor
      prod}. $\phi\mapsto\Phi$ ist eine lineare Abbildung. Die
    Injektivit\"at folgt aus der Definition des Tensorproduktes:
    $\Phi$ kann in dem kommutativen Diagramm nur die Nullabbildung
    sein, wenn $\phi\equiv0$ gilt. Sei $\Phi\in L(U\otimes V;W)$
    beliebig. Dann ist $\Phi\circ\tau\colon U\times V\to W$ eine
    multilineare Abbildung. Ihr wird unter der obigen Abbildung gerade
    $\Phi$ zugeordnet. Somit ist die angegebene Zuordnung auch
    surjektiv. \qedhere
  \end{enumerate}
\end{proof}

\Subsection{Basisdarstellung}
Um die Darstellung einfacher zu halten, beschr\"anken wir uns hier auf
den Fall mit wenigen Vektorr\"aumen, $E$ und $E^*$. Dies ist f\"ur
Anwendungen h\"aufig v\"ollig ausreichend. Der allgemeine Fall ist nur
von der Notation her komplizierter. Wir wollen hier stets annehmen,
dass $E$ endlichdimensional ist.

\begin{definition}
  Sei $E$ ein Vektorraum. Sei $(r,s)\in\N\times\N \setminus
  \{(0,0\}$. Ein Tensor $T$ der Stufe $(r,s)$ ist ein Element
  \[T\in\underbrace{E\otimes\ldots\otimes E}_{r\text{
      Faktoren}}\otimes\underbrace{E^*\otimes\ldots\otimes E^*}_{s\text{
      Faktoren}}.\]
  Wir schreiben auch $T\in E^{(r,s)}$. 
\end{definition}

\begin{remark}
  Ein Element $(v_1,\ldots,v_r,\omega_1,\ldots,\omega_s)\in
  E^r\times(E^*)^s$ induziert eine Abbildung \[f\in
  L^{r+s}(\underbrace{E^*,\ldots,E^*}_{r\text{
      St\"uck}},\underbrace{E,\ldots,E}_{s\text{ St\"uck}};F)\]
  verm\"oge \[f(\eta_1,\ldots,\eta_r,u_1,\ldots,u_s):=
  \eta_1(v_1)\cdot\ldots\cdot\eta_r(v_r)\cdot
  \omega_1(u_1)\cdot\ldots\cdot\omega_s(u_s).\] Mit derselben
  Vorschrift k\"onnen wir einem reinen Tensor $v_1\otimes\ldots
  \otimes v_r\otimes\omega_1\otimes\ldots\otimes\omega_s$ ein $f\in
  L^{r+s}(E^*,\ldots,E^*,E,\ldots,E;F)$ in wohldefinierter Weise
  zuordnen. Durch Addition von reinen Tensoren und linearen
  Abbildungen erhalten wir also eine lineare Abbildung $\Phi$, die
  jedem Tensor der Stufe $(r,s)$ eine lineare Abbildung $f\in
  L^{r+s}(E^*,\ldots,E^*,E,\ldots,E;F)$ zuordnet:
  $\Phi(v_1\otimes\ldots\otimes
  v_r\otimes\omega_1\otimes\ldots\otimes\omega_s):=f$.\par
  Sei umgekehrt $f\in L^{r+s}(E^*,\ldots,E^*,E\ldots,E;F)$. Sei
  $(a_i)_{1\le i\le n}$ eine Basis von $E$ und sei
  $\left((a^*)^i\right)_{1\le i\le n}$ die zugeh\"orige duale
  Basis. F\"ur $\omega^k=\sum\limits_{i_k=1}^n
  \omega^k_{i_k}(a^*)^{i_k}\in E^*$, $1\le k\le r$, und
  $\xi_l=\sum\limits_{j_l=1}^n \xi^{j_l}_la_{j_l}$, $1\le l\le s$,
  erhalten wir aufgrund der Multilinearit\"at von $f$
  \begin{align*}
    &\,f\left(\omega^1,\ldots,\omega^r,\xi_1,\ldots,\xi_s\right)\\
    =&\, \sum\limits_{i_1=1}^n\cdots\sum\limits_{i_r=1}^n
    \sum\limits_{j_1=1}^n\cdots\sum\limits_{j_s=1}^n
    \omega^1_{i_1}\cdots\omega^r_{i_r}\cdot
    \xi^{j_1}_1\cdots\xi^{j_s}_s\cdot\\
    &\,\qquad\cdot f\left((a^*)^{i_1},\ldots,(a^*)^{i_r},
      a_{j_1},\ldots,a_{j_s}\right)\\
    =&\,\sum\limits_{i_1=1}^n\cdots\sum\limits_{i_r=1}^n
    \sum\limits_{j_1=1}^n\cdots\sum\limits_{j_s=1}^n
    f\left((a^*)^{i_1},\ldots,(a^*)^{i_r},
      a_{j_1},\ldots,a_{j_s}\right) \cdot\\
    &\,\qquad\cdot \Phi\left(a_{i_1}\otimes\ldots\otimes
      a_{i_r}\otimes (a^*)^{j_1}\otimes\ldots\otimes
      (a^*)^{j_s}\right)
    (\omega^1,\ldots,\omega^r,\xi_1,\ldots,\xi_s)
  \end{align*}
  mit $\Phi$ wie oben definiert.  Indem wir $f(\ldots)$ (Argument wie
  oben) noch mit dem Tensor $a_{i_1}\otimes\ldots\otimes (a^*)^{j_s}$
  multiplizieren und aufsummieren, k\"onnen wir umgekehrt jeder
  multilinearen Abbildung einen Tensor zuordnen. Diese beiden
  Zuordnungen sind invers zueinander. Daher werden wir nun Tensoren
  und multilineare Abbildungen identifizieren.
\end{remark}

\begin{definition}
  Sei $E$ ein $F$-Vektorraum. Sei $(a_i)_{1\le i\le n}$ eine Basis von
  $E$. Sei $\left((a^*)^i\right)_{1\le i\le n}$ die zugeh\"orige duale
  Basis. Sei $T$ ein $(r,s)$-Tensor. Wir definieren
  $\left(T_{j_1\ldots j_s}^{i_1\ldots i_r}\right)_{1\le
    j_1,\ldots,j_s,i_1,\ldots,i_r\le n}$ durch \[T_{j_1\ldots
    j_s}^{i_1\ldots i_r}:=T\left((a^*)^{i_1},\ldots,(a^*)^{i_r},
    a_{j_1},\ldots,a_{j_s}\right).\]
\end{definition}

\begin{remark}
  Sei $E$ ein Vektorraum mit Basis $(a_i)_{1\le i\le n}$, Dualraum
  $E^*$ und zugeh\"origer dualer Basis $\left((a^*)^j\right)_{1\le
    j\le n}$. Sei $T$ ein $(r,s)$-Tensor. F\"ur
  $\omega^k=\sum\limits_{i_k=1}^n \omega^k_{i_k}(a^*)^{i_k}\in E^*$,
  $1\le k\le r$, und $\xi_l=\sum\limits_{j_l=1}^n \xi^{j_l}_la_{j_l}$,
  $1\le l\le s$, erhalten wir aufgrund der Multilinearit\"at von $T$
  \begin{align*}
    &\,T\left(\omega^1,\ldots,\omega^r,\xi_1,\ldots,\xi_s\right)\\
    =&\,\sum\limits_{i_1=1}^n\cdots\sum\limits_{i_r=1}^n
    \sum\limits_{j_1=1}^n\cdots\sum\limits_{j_s=1}^n
    \omega^1_{i_1}\cdots\omega^r_{i_r} \xi^{j_1}_1\cdots\xi^{j_s}_s
    T\left((a^*)^{i_1},\ldots,(a^*)^{i_r},
      a_{j_1},\ldots,a_{j_s}\right)\\
    =&\,\sum\limits_{i_1=1}^n\cdots\sum\limits_{i_r=1}^n
    \sum\limits_{j_1=1}^n\cdots\sum\limits_{j_s=1}^n
    \omega^1_{i_1}\cdots\omega^r_{i_r} \xi^{j_1}_1\cdots\xi^{j_s}_s
    T_{j_1\ldots j_s}^{i_1\ldots i_r}.
  \end{align*}
  Wir sagen, dass $T$ bez\"uglich der Basis $(a_i)_{1\le i\le n}$
  durch $\left(T_{j_1\ldots j_s}^{i_1\ldots i_r}\right)$ dargestellt
  sei. \par Wir wollen nun die Darstellung $\left(\tilde T_{j_1\ldots
      j_s}^{i_1\ldots i_r}\right)$ von $T$ bez\"uglich einer weiteren
  Basis $(b_i)_{1\le i\le n}$ bestimmen. Sei dazu $(d^j_i)_{1\le
    i,j\le n}$ die invertierbare Matrix mit \[b_i=\sum\limits_{j=1}^n
  d^j_ia_j.\] Sei $(D^j_i)_{1\le i,j\le n}$ die Inverse zu
  $(d^j_i)_{1\le i,j\le n}$. Dann gilt f\"ur die zu $(b_i)_{1\le i\le
    n}$ duale Basis
  \[\left(b^*\right)^i=\sum\limits_{j=1}^nD^i_j\left(a^*\right)^j,\]
  denn es gilt \[\delta^j_i\overset!=\left(b^*\right)^j(b_i)
  =\sum\limits_{k,l=1}^n D^j_k\left(a^*\right)^k d^l_ia_l
  =\sum\limits_{k,l=1}^n D^j_k\delta^k_ld^l_i =\sum\limits_{k=1}^n
  D^j_kd^k_i.\]
  Wir erhalten
  \begin{align*}
    \tilde T^{i_1\ldots i_r}_{j_1\ldots j_s} =&\,
    T\left(\left(b^*\right)^{i_1},\ldots\left(b^*\right)^{i_r},
      b_{j_1},\ldots,b_{j_s}\right)\\
    =&\,\sum\limits_{k_1=1}^n\ldots\sum\limits_{k_r=1}^n
    \sum\limits_{l_1=1}^n\ldots\sum\limits_{l_s=1}^n
    D^{i_1}_{k_1}\cdots D^{i_r}_{k_r}\cdot d^{l_1}_{j_1}\cdots
    d^{l_s}_{j_s}\cdot\\
    &\,\qquad\cdot T\left(\left(a^*\right)^{k_1},
      \ldots\left(a^*\right)^{k_r}, a_{l_1},\ldots,a_{l_s}\right)\\ 
    =&\,\sum\limits_{k_1=1}^n\ldots\sum\limits_{k_r=1}^n
    \sum\limits_{l_1=1}^n\ldots\sum\limits_{l_s=1}^n
    D^{i_1}_{k_1}\cdots D^{i_r}_{k_r}\cdot d^{l_1}_{j_1}\cdots
    d^{l_s}_{j_s}\cdot T^{k_1\ldots k_r}_{l_1\ldots l_s}.
  \end{align*}
  Im Falle eines $(1,1)$-Tensors entspricht dies gerade dem
  Transformationsverhalten einer Matrix. \par Physiker definieren
  Tensoren \"uber ihr Transformationsverhalten. 
\end{remark}

\begin{remark}[Heben und Senken von Indices] 
  Wir illustrieren dies beispielhaft nur f\"ur $(1,1)$-Tensoren. Die
  \"Ubertragung auf allgemeine Tensoren ist einfach. Sei $E$ ein
  endlichdimensionaler Vektorraum, $\dim E=n$. Sei $T\in
  E^{(1,1)}$. Seien $X,Y\in E$ und $\omega\in E^*$. Die Abbildung
  $(\omega,X)\to T(\omega,X)$ ist multilinear. Dann ist $T(\cdot,X)$
  eine Linearform auf $E^*$, also verm\"oge $E^{**}\cong E$ ein
  Element von $E$. Somit ist die Abbildung \[Y\mapsto\langle
  T(\cdot,X),Y\rangle\] linear. Wegen $X,Y\in E$ fassen wir somit $T$
  mit Hilfe des Skalarproduktes als Element in $E^{(0,2)}$ auf. \par
  In Koordinaten entspricht das dem Senken eines Indexes. Sei das
  Skalarprodukt $\langle\cdot,\cdot\rangle$ durch die Matrix
  $(g_{ij})_{1\le i,j\le n}$ dargestellt, eine in der
  Differentialgeometrie \"ubliche Notation. Sei $(g^{ij})_{1\le i,j\le
    n}$ die zu $(g_{ij})_{1\le i,j\le n}$ in dem Sinn inverse Matrix,
  dass eine der beiden \"aquivalenten Bedingungen, 
  \[\sum\limits_{i=1}^n g^{ki}g_{il}=\delta^k_l \quad\text{oder}\quad
  \sum\limits_{i=1}^n g_{ki}g^{il}=\delta^l_k,\] gilt. Sei $T$
  bez\"uglich einer festen Basis durch die Matrix $(T^i{}_j)_{1\le
    i,j\le n}$ dargestellt. Wollen wir $T$ wie oben mit Hilfe des
  Skalarproduktes $(g_{ij})$ als Element in $\tilde T\in E^{(0,2)}$
  auf"|fassen, so lautet die entsprechende Koordinatendarstellung
  $\tilde T_{ij}=\sum\limits_{k=1}^n T^k{}_jg_{ki}$. Dies wird als
  Senken eines Indexes bezeichnet. Mit der Anordnung der Indices kann
  man verdeutlichen, welcher Index gesenkt wurde. \par
  Als (sp\"ater in der Differentialgeometrie relevantes) Beispiel
  betrachten wir den Tensor $R=\big(R_{ij}{}^k{}_l\big)_{1\le
    i,j,k,l\le n}\in E^{(1,3)}$, der durch Senken des dritten Indexes
  zu einem $(0,4)$-Tensor wird \[\tilde R_{ijkl}=\sum\limits_{r=1}^n
  R_{ij}{}^r{}_lg_{rk}.\] Die dazu inverse Operation ist das Heben
  eines Indexes. Aus einem Tensor $\tilde R=\big(\tilde
  R_{ijkl}\big)_{1\le i,j,k,l\le n}\in E^{(0,4)}$ k\"onnen wir so
  wieder einen $(1,3)$-Tensor machen \[R_{ij}{}^k{}_l
  =\sum\limits_{r=1}^n \tilde R_{ijrl}g^{rk}.\] 
\end{remark}

\Subsection{Eigenschaften}
\begin{lemma}
  Seien $U,V,W$ und $V_i$, $i\in I$, $F$-Vektorr\"aume. Dann
  induzieren die auf Erzeugendensystemen angegebenen Abbildungen
  Isomorphismen:
  \begin{align*}
    F\otimes V\overset\sim\to&\,V,&\lambda\otimes v\mapsto&\,\lambda
    v,\\ 
    V\otimes W\overset\sim\to&\,W\otimes V,&v\otimes w\mapsto&\,w\otimes 
    v,\\
    (U\otimes V)\otimes W\overset\sim\to&\,U\otimes(V\otimes
    W),&(u\otimes v)\otimes w\mapsto&\,u\otimes(v\otimes w),\\
    \left(\bigoplus\limits_{i\in I}V_i\right)\otimes
    W\overset\sim\to&\, \bigoplus\limits_{i\in I}(V_i\otimes W),
    &(v_i)_{i\in I}\otimes w\mapsto&\,(v_i\otimes w)_{i\in I}.
  \end{align*}
\end{lemma}
\begin{proof}[Beweis]
  Wir weisen nur nach, dass die erste Abbildung einen Isomorphismus
  liefert und lassen die \"ubrigen Aussagen als \"Ubungsaufgabe. \par
  Die Abbildung $\phi\colon F\times V\ni(\lambda,v)\mapsto\lambda v\in
  V$ ist bilinear und induziert daher eine wohldefinierte lineare
  Abbildung $\Phi\colon F\otimes V\ni\lambda\otimes v\mapsto \lambda
  v\in V$. Definiere eine lineare Abbildung durch $\psi\colon V\ni
  v\mapsto 1\otimes v\in F\otimes V$. Es folgt
  $\Phi\circ\psi(v)=\Phi(1\otimes v)=v$ f\"ur alle $v\in
  V$. Weiterhin gilt $\psi\circ\Phi(\lambda\otimes v) =\psi(\lambda v)
  =1\otimes(\lambda v) =\lambda\otimes v$. Somit erhalten wir
  $\phi\circ\psi=\id$ und $\psi\circ\phi=\id$. $\phi$ ist ein
  Isomorphismus.
\end{proof}

\begin{definition}[Tensorprodukt von Abbildungen]
  Seien $\phi\colon M\to M'$ und $\psi\colon N\to N'$ lineare
  Abbildungen. Dann definieren wir die Abbildung
  \begin{align*}
    \phi\otimes\psi\colon M\otimes N\to&\,M'\otimes N'
    \intertext{durch}
    x\otimes y\mapsto&\,\phi(x)\otimes\psi(y) 
  \end{align*}
  und lineare Fortsetzung. Dies ist aufgrund der Bilinearit\"at der
  Abbildung \[M\times N\ni(x,y)\mapsto \phi(x)\otimes\psi(y)\] und der
  definierenden Eigenschaft des Tensorproduktes m\"oglich.\par Sei
  $\phi\colon M\to M'$ linear. Dann hei\ss{}t
  \[\phi\otimes\id\colon M\otimes N\to M'\otimes N\] die mit $N$
  tensorierte Abbildung. \par Wir bemerken, dass bei dieser
  Konstruktion das Diagramm \[\xymatrix{(m,n)\ar[d]&M\times
    N\ar[r]\ar[d]_-{\phi\times\psi}&M\otimes
    N\ar[d]^-{\phi\otimes\psi} & m\otimes n\ar[d]\\
    (\phi(m),\psi(n)) &M'\times N'\ar[r]& M'\otimes N'
    &\phi(m)\otimes\phi(n)}\]
  kommutativ wird. \par Diese Konstruktion funktioniert auch mit
  mehr als zwei Abbildungen. 
\end{definition}

\begin{definition}[Exakte Sequenzen]
  Sei \[\xymatrix{M_n\ar[r]^-{\phi_n}&M_{n-1}\ar[r]^-{\phi_{n-1}}&
    {}\ldots\ldots\ar[r]^-{\phi_3}& M_2\ar[r]^-{\phi_2}&M_1}\] eine
  Folge linearer Abbildungen (m\"oglicherweise auch in eine oder beide
  Richtungen unendlich fortgesetzt). Eine solche Folge hei\ss{}t
  Sequenz. \par
  Eine Sequenz hei\ss{}t exakte Sequenz, falls
  $\im\phi_k=\ker\phi_{k-1}$ f\"ur alle $n\ge k\ge 3$ (allgemeiner: an
  jeder Stelle) gilt.
\end{definition}

\begin{theorem}
  Sei \[\xymatrix{M'\ar[r]^-{\phi}&M\ar[r]^-\psi&M''\ar[r]&0}\] eine
  exakte Sequenz von Vektorr\"aumen. Sei $N$ ein weiterer
  Vektorraum. Dann ist auch die Sequenz
  \[\xymatrix{M'\otimes N\ar[r]^-{\phi\otimes\id} &M\otimes
    N\ar[r]^-{\psi\otimes\id} &M''\otimes N\ar[r] &0}\] exakt. 
\end{theorem}
\begin{proof}[Beweis]
  Aus der Exaktheit folgt $\psi\circ\phi=0$. Hieraus erhalten wir
  $(\psi\otimes\id)\circ(\phi\otimes\id)=(\psi\circ\phi)\otimes\id
  =0$, da $0\otimes n$, $n\in N$, der Nullvektor in $M''\otimes N$
  ist. Somit ist $\im(\phi\otimes\id)\subset\ker(\psi\otimes\id)$.
  Daher induziert $\psi\otimes\id$ eine lineare
  Abbildung \[\bar\psi\colon (M\otimes N)/\im(\phi\otimes\id)\to
  M''\otimes N.\] W\"are $\im(\phi\otimes\id) =\ker(\psi\otimes\id)$,
  so w\"are die Abbildung $\bar\psi$ injektiv. Daher gen\"ugt es,
  nachzuweisen, dass $\bar\psi$ ein Isomorphismus ist.\par $\psi$ ist
  nach Voraussetzung surjektiv. W\"ahle also zu jedem $x''\in M''$ ein
  $\imath(x'')\in M$ mit $\psi(\imath(x''))=x''$. Es ist nicht klar,
  ob $\imath$ linear ist. Definiere
  \begin{align*}
    \sigma\colon M''\times N\to&\,(M\otimes N)/\im(\phi\otimes\id),\\
    (x'',y)\mapsto&\,\overline{\imath(x'')\otimes y}. 
  \end{align*}
  $\overline{\imath(x'')\otimes y}$ steht hier f\"ur die Restklasse
  von $\imath(x'')\otimes y$. Wir behaupten, dass $\sigma$ eine
  bilineare Abbildung ist. Die Linearit\"at im zweiten Argument ist
  klar. Wir zeigen zun\"achst, dass das Element
  $\overline{\imath(x'')\otimes y}$ von der speziellen Wahl von
  $\imath(x'')\in M$ zu $x''\in M''$ unabh\"angig ist. Seien
  $x_1,x_2\in M$ zwei solche Wahlen. Dann folgt aus $\psi(x_1-x_2)=0$
  und der vorausgesetzten Exaktheit $x_1-x_2\in\im\phi$, also
  $x_1-x_2=\phi(x')$ f\"ur ein $x'\in M'$. Wir
  erhalten \[\overline{x_1\otimes y} -\overline{x_2\otimes y}
  =\overline{\phi(x')\otimes y} =\overline{(\phi\otimes\id)(x'\otimes
    y)} =0\] nach Definition des Quotientenraumes. Somit ist $\sigma$
  wohldefiniert.\par
  Die Abbildung $\psi$ induziert eine lineare Abbildung
  $M/\im\phi=M/\ker\psi\to M''$. Zu dieser gibt es eine lineare
  Inverse. Bis auf die Auswahl eines Vertreters in $M/\im\phi$ ist $i$
  gerade diese Inverse. Da wir die Wohldefiniertheit \"uberpr\"uft
  haben, ist $\sigma$ somit bilinear. \par
  Nach Definition des Tensorraumes induziert $\sigma$ eine
  Abbildung \[M''\otimes N\to(M\otimes N)/\im(\phi\otimes\id).\] Nach
  Definition von $\sigma$ ist klar, dass diese induzierte Abbildung
  auf Erzeugern der Form $x''\otimes y$ zu $\ol\psi$ invers ist. \par
  Die Surjektivit\"at der Abbildung $\psi\otimes\id$ folgt direkt aus
  der Surjektivit\"at von $\psi$.\par Die Behauptung folgt.
\end{proof}

\begin{beispiel}
  Sei $U\subset V$ ein Unterraum. Dann ist die
  Sequenz \[\xymatrix{U\ar[r]^-i &V\ar[r]^-\pi &V/U \ar[r] &0}\] mit
  der Inklusionsabbildung $i$ und der Projektionsabbildung $\pi$
  exakt. Sei $W$ ein weiterer Vektorraum. Dann
  ist \[\xymatrix{U\otimes W\ar[r]^-{i\otimes\id} &V\otimes
    W\ar[r]^-{\pi\otimes\id} &(V/U)\otimes W\ar[r] &0}\] ebenfalls
  exakt. Somit liefert der Homomorphiesatz f\"ur $\pi\otimes\id$
  zusammen mit der Exaktheit den Isomorphismus
  \begin{align*}
    (V/U)\otimes W\overset\sim\longrightarrow &\,(V\otimes
    W)/\im(i\otimes\id),\\
    \bar x\otimes y\mapsto&\,\overline{x\otimes y}. 
  \end{align*}
\end{beispiel}

Im Gegensatz zu den bisherigen Resultaten zu Tensorprodukten l\"asst
sich Theorem \ref{links exakt thm} i.\,a.{} nicht auf allgemeinere
Situationen als Vektorr\"aume und lineare Abbildungen \"ubertragen,
denn das folgende Theorem ist spezifisch f\"ur Vektorr\"aume. 
\begin{theorem}
  Sei \[\xymatrix{0\ar[r]& A\ar[r]^-\phi &C\ar[r]^-\psi &B\ar[r] &0}\]
  eine exakte Sequenz von Vektorr\"aumen und linearen
  Abbildungen. Dann ist $C$ isomorph zu $A\oplus B$. 
\end{theorem}
\begin{proof}[Beweis]
  $\phi$ ist injektiv und somit ein Isomorphismus auf $\im\phi$.  Der
  Unterraum $\phi(A)\subset C$ besitzt ein Komplement $D$ mit
  $\phi(A)\oplus D=C$. Da $\psi\circ\phi=0$ gilt und $\psi$ surjektiv
  ist, ist auch $\psi|_D\colon D\to B$ surjektiv. $\psi|_D$ ist aber
  auch injektiv, da $D\cap\ker\psi=D\cap\im\phi=\{0\}$ gilt. Somit ist
  $\psi|_D$ bijektiv. 
\end{proof}

Wir wenden dies nun auf die Exaktheit auf der linken Seite an. 
\begin{theorem}\label{links exakt thm}
  Sei \[\xymatrix{0\ar[r]& A\ar[r]^-\phi &A\oplus B\ar[r]^-\psi
    &B\ar[r] &0}\] eine exakte Sequenz von Vektorr\"aumen und linearen
  Abbildungen mit $\phi(a)=(a,0)$ sowie $\psi(a,b)=b$. Sei $V$ ein
  weiterer Vektorraum. Dann ist \[\xymatrix{0\ar[r] &A\otimes
    V\ar[r]^-{\phi\otimes\id} &(A\oplus B)\otimes
    V\ar[r]^-{\psi\otimes\id} &B\otimes V\ar[r] &0}\] ebenfalls exakt.
\end{theorem}
\begin{proof}[Beweis]
  Die Exaktheit von \[A\otimes V\to (A\oplus B)\otimes V\to B\otimes
  V\to 0\] haben wir bereits gezeigt. Benutze den Isomorphismus 
  \begin{align*}
    (A\oplus B)\otimes V\to&\,(A\otimes V)\oplus(B\otimes V),\\
    (a,b)\otimes v\mapsto&\,(a\otimes v,b\otimes v). 
  \end{align*}
  Nach Verkettung mit diesem Isomorphismus bekommt $\phi\otimes\id$
  die Gestalt $a\otimes v\mapsto(a\otimes v,0)$, ist also
  offensichtlicherweise injektiv. Somit erhalten wir die behauptete
  Exaktheit. 
\end{proof}

\Section{Kettenkomplexe und exakte Sequenzen}
Wir benutzen in diesem Kapitel \cite{Hatcher}. 
\Subsection{Kettenkomplexe}
Wir wiederholen zun\"achst eine Definition zu Gruppenhomomorphismen
und beweisen ein kleines Lemma dazu.
\begin{lemma}
  Seien $G,H$ Gruppen. Dann hei\ss{}t $\phi\colon G\to H$
  Gruppenhomomorphismus, falls $\phi(a\cdot b)=\phi(a)\cdot\phi(b)$
  f\"ur alle $a,b\in G$ gilt. Es gelten
  \begin{enumerate}[(i)]
  \item $\phi(1)=1$,
  \item $\phi$ ist genau dann injektiv, wenn $\phi^{-1}(\{1\})=\{1\}$
    gilt. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Dies folgt aus $\phi(a)=\phi(1\cdot a) =\phi(1)\cdot
    \phi(a)$. 
  \item Sei $\phi$ nicht injektiv und gelte $\phi(a)=\phi(b)$ f\"ur
    $a\neq b$. Dann folgt $\phi(ab^{-1}) =1$ mit $ab^{-1}\neq1$. \par
    Die andere Richtung ist trivial. \qedhere
  \end{enumerate}
\end{proof}

\begin{definition}[Kettenkomplexe und exakte Sequenzen]
  Sei \[\xymatrix{C_n\ar[r]^-{d_n}&C_{n-1}\ar[r]^-{d_{n-1}}&
    {}\ldots\ldots\ar[r]^-{d_3}& C_2\ar[r]^-{d_2}&C_1}\] eine
  Folge von Gruppen und Gruppenhomomorphismen (m\"oglicherweise auch
  in eine oder beide Richtungen unendlich fortgesetzt). Eine solche
  Folge hei\ss{}t Sequenz.
  \begin{enumerate}[(i)]
  \item Eine Sequenz hei\ss{}t Kettenkomplex, falls
    $\im\phi_k\subset\ker\phi_{k-1}$ f\"ur alle $n\ge k\ge 3$
    (allgemeiner: an jeder Stelle) gilt.
  \item Eine Sequenz hei\ss{}t exakte Sequenz, falls
    $\im\phi_k=\ker\phi_{k-1}$ f\"ur alle $n\ge k\ge 3$ (allgemeiner:
    an jeder Stelle) gilt. 
  \item Gilt $\im d_{k+1}=\ker d_k$, so hei\ss{}t die Sequenz an der
    Stelle $C_k$ exakt. 
  \item Eine exakte Sequenz der Form \[\xymatrix{0\ar[r]& A\ar[r]^-f
      &B\ar[r]^-g &C\ar[r] &0}\] hei\ss{}t kurze exakte
    Sequenz. (Hierbei steht $0$ f\"ur die triviale Gruppe, die nur aus
    einem Element besteht. Die nicht bezeichneten Pfeile stehen f\"ur
    die trivialen Homomorphismen. Abelsche Gruppen schreiben wir meist
    additiv mit dem neutralen Element $0$.)
  \item Eine exakte Sequenz, die in beiden Richtungen unendlich lang
    ist, hei\ss{}t lange exakte Sequenz. 
  \end{enumerate}
\end{definition}
  
\begin{lemma}
  Sei \[\xymatrix{A\ar[r]^-f &B\ar[r]^-g &C}\] eine Sequenz von
  Gruppen und Gruppenhomomorphismen. Dann sind die folgenden beiden
  Aussagen \"aquivalent:
  \begin{enumerate}[(i)]
  \item $\im f\subset \ker g$.
  \item $g\circ f=0$. 
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \"Ubung. 
\end{proof}

\begin{lemma}
  F\"ur Gruppen $G,H$ und einen Gruppenhomomorphismen $f\colon G\to H$
  gelten: 
  \begin{enumerate}[(i)]
  \item\label{i kurz ex seq} $f$ ist genau dann injektiv, wenn die
    Sequenz \[\xymatrix{0\ar[r] &G\ar[r]^-f &H}\] (an der Stelle $G$)
    exakt ist.
  \item\label{ii kurz ex seq} $f$ ist genau dann surjektiv, wenn die
    Sequenz \[\xymatrix{G\ar[r]^-f &H\ar[r] &0}\] (an der Stelle $H$)
    exakt ist. 
  \item $f$ ist genau dann bijektiv, wenn die Sequenz
    \[\xymatrix{0\ar[r] &G\ar[r]^-f &H\ar[r] &0}\] exakt ist.
  \end{enumerate}
\end{lemma}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Die Exaktheit ist \"aquivalent zu $\im 0=\{0\}=\ker f$. 
  \item Die Exaktheit ist \"aquivalent zu $\im f=\ker 0=H$. 
  \item Folgt aus \eqref{i kurz ex seq} und \eqref{ii kurz ex
      seq}. \qedhere
  \end{enumerate}
\end{proof}

\begin{definition}[Direkte Summe]
  Seien $G,H$ Gruppen. Dann ist $G\times H$ mit der
  Verkn\"upfung \[(g_1,h_1)\cdot(g_2,h_2):= (g_1\cdot g_2, h_1\cdot
  h_2),\] dem neutralen Element $e=(e_G,e_H)$ und der Inversen
  $(g,h)^{-1}:=(g^{-1},h^{-1})$ eine Gruppe, die direkte Summe der
  Gruppen $G$ und $H$: $G\oplus H$.  
\end{definition}

Im folgenden Theorem ist die Kommutativit\"at der beteiligten Gruppen
wichtig. 
\begin{theorem}
  Sei \[\xymatrix{0\ar[r] &A\ar[r]^-i &B\ar[r]^-j &C\ar[r] &0}\] eine
  exakte Sequenz abelscher Gruppen. Dann sind die folgenden
  Bedingungen \"aquivalent:
  \begin{enumerate}[(i)]
  \item\label{split i} Es gibt einen (Gruppen-)Homomorphismus $s\colon
    B\to A$ mit $s\circ i=\id_A$.
  \item\label{split ii} Es gibt einen (Gruppen-)Homomorphismus $t\colon
    C\to B$ mit $j\circ t=\id_C$.
  \item\label{split iii} Es gibt einen Isomorphismus $B\cong A\oplus
    C$, so dass das folgende Diagramm kommutativ ist:
    \[\xymatrix{0\ar[r] &A\ar[r]^-i\ar[dr] &B\ar[r]^-j\ar[d]^-\cong
      &C\ar[r] \ar[dl]&0,\\
      &&A\oplus C&}\]
    wobei die fehlenden Abbildungen durch $i_A\colon A\to A\oplus C$ mit
    $a\mapsto(a,0)$ und $i_C\colon C\to A\oplus C$ mit $c\mapsto(0,c)$
    gegeben sind. Definiere weiterhin die Projektionen auf den ersten
    Faktor $\pi_A\colon A\oplus C\to A$ bzw.{} auf den zweiten Faktor
    $\pi_C\colon A\oplus C\to C$. Es gilt $\pi_Ai_A=\id_A$ und
    $\pi_Ci_C=\id_C$. 
  \end{enumerate}
  Ist eine dieser Bedingungen erf\"ullt, so sagen wir, dass die exakte
  Sequenz spaltet. 
\end{theorem}
\begin{proof}[Beweis]
  \glqq\eqref{split iii}$\Longrightarrow$\eqref{split i}\grqq: Sei
  $\Phi\colon B\to A\oplus C$ der angegebene Isomorphismus. Definiere
  $s\colon B\to A$ durch $s(b):=\pi_A(\Phi(b))$. Es folgt
  $si(a)=\pi_A(\Phi(i(a))) =\pi_A(a,0) =a$, wobei die mittlere
  Gleichheit aus der Kommutativit\"at des angegebenen Diagrammes
  folgt. \par
  \glqq\eqref{split iii}$\Longrightarrow$\eqref{split ii}\grqq: Sei
  $\Phi\colon B\to A\oplus C$ der angenommene Isomorphismus.  Setze
  $t(c):=\Phi^{-1}(i_C(c))$. Aus der Kommutativit\"at des angegebenen
  Diagrammes folgt $i_Cj=\Phi$ und daraus $\pi_C\Phi=j$ oder
  $\pi_C=j\Phi^{-1}$. Wir erhalten
  $jt=j\Phi^{-1}i_C=\pi_Ci_C=\id$. \par
  \glqq\eqref{split i}$\Longrightarrow$\eqref{split iii}\grqq: Die
  gesuchte Abbildung $\Phi$ ist $B\ni b\mapsto(s(b),j(b))\in A\oplus
  C$. Dies ist ein Gruppenhomomorphismus. \par
  Wir zeigen zun\"achst, dass $\Phi$ surjektiv ist: Sei $(a,c)\in
  A\oplus C$. Da $j$ surjektiv ist, gibt es ein $b_1\in B$ mit
  $jb_1=c$ ($b_1$ ist bis auf ein Element in $\im i=\ker j$
  wohldefiniert. Wir werden $b_1$ nun noch um ein solches Element
  ab\"andern um die Surjektivit\"at von $\Phi$ zu zeigen.). Setze
  $b:=i(a-sb_1)+b_1$. Es gilt $jb=jb_1=c$. Weiterhin gilt nach
  Voraussetzung $sb =sia-(si)sb_1+sb_1 =a-sb_1+sb_1 =a$. Somit ist
  $\Phi(b)=(a,c)$ und $\Phi$ ist surjektiv. \par
  Zur Injektivit\"at von $b$: Gelte $(s(b),j(b))=(0,0)$. Aus $j(b)=0$
  folgt zun\"achst $b\in\ker j$ und dann aufgrund der Exaktheit der
  kurzen exakten Sequenz $b\in\im i$. W\"ahle daher $a\in A$ mit
  $ia=b$. Benutze nun $s(b)=0$. Wir erhalten $0=s(b) =sia =a$, also
  $a=0$. Somit gilt $b=ia =i0=0$ und $\Phi$ ist injektiv. \par
  \glqq\eqref{split ii}$\Longrightarrow$\eqref{split iii}\grqq:
  Betrachte $A\oplus C\to B$ mit $(a,c)\mapsto ia+tc$. \par Zur
  Surjektivit\"at: Sei $b\in B$. Setze $c:=jb$. Es gilt $j(b-tc)
  =jb-jtc =c-c=0$. Also gilt $b-tc\in\ker j$. Aufgrund der Exaktheit
  gibt es somit ein $a\in A$ mit $ia=b-tc$. Nun wird $(a,c)$ auf
  $ia+tc =b-tc+tc =b$ abgebildet. Dies zeigt die Surjektivit\"at.\par
  Zur Injektivit\"at: Gelte $ia+tc=0$. Es folgt $0 =j0 =jia+jtc =jtc
  =c$. Somit erhalten wir $c=0$ und $ia=0$. Da $i$ injektiv ist, gilt
  auch $a=0$.
\end{proof}
Solch ein Beweis wird auch als Diagrammjagd bezeichnet. 

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item \[0\to A\to A\oplus B\to B\to 0\] mit den Abbildungen $A\ni
    a\mapsto (a,0)\in A\oplus B$ und $A\oplus B\ni(a,b)\mapsto b\in B$
    spaltet.
  \item Nicht jede exakte Sequenz spaltet: 
    \[0\to\Z/2\Z\overset{\cdot2}\longrightarrow\Z/4\Z \overset{\mod
      2}\longrightarrow \Z/2\Z\to0\] spaltet nicht, da $\Z/4\Z$ und
    $\Z/2\Z\oplus\Z/2\Z$ nicht isomorph sind (betrachte $a+a$). 
  \end{enumerate}
\end{beispiele}

\begin{theorem}
  Sei \[\xymatrix{\ldots\ar[r] &C_{n+2}\ar[r]^-{d_{n+2}}
    &C_{n+1}\ar[r]^-{d_{n+1}} &C_{n}\ar[r]^-{d_{n}}
    &C_{n-1}\ar[r]^-{d_{n-1}} &C_{n-2}\ar[r] &\ldots}\] eine lange
  exakte Sequenz. Dann erhalten wir f\"ur jedes $n$ eine kurze exakte
  Sequenz \[\xymatrix{0\ar[r] &\im d_{n+1}\ar[r]^-{i_n}
    &C_n\ar[r]^-{d_n} &\im d_n\ar[r] &0,}\] wobei $i_n$ die
  Inklusionsabbildung bezeichnet.
\end{theorem}
\begin{proof}[Beweis]
  Die Injektivit\"at von $i_n$ und die Surjektivit\"at von $d_n$ sind
  klar. Es gilt $\im i_n=\im d_{n+1}=\ker d_n$ aufgrund der Exaktheit
  der langen exakten Sequenz. Somit ist die kurze Sequenz exakt. 
\end{proof}

\Subsection{Homologie}
\begin{definition}[Homologiegruppen]
  Sei \[\xymatrix{\ldots\ar[r]^-{d_{n+2}} &C_{n+1}\ar[r]^-{d_{n+1}}
    &C_n\ar[r]^-{d_n}&C_{n-1}\ar[r]^-{d_{n-1}}& {}\ldots}\] ein
  Kettenkomplex abelscher Gruppen. Wir wollen ab jetzt annehmen, dass
  jeder Kettenkomplex ein Kettenkomplex abelscher Gruppen ist. Es gilt
  $\im d_{n+1}\subset\ker d_n$. $\im d_{n+1}$ und $\ker d_n$ sind
  Untergruppen von $C_n$. Da $C_n$ abelsch ist, ist $\im d_{n+1}$
  automatisch auch ein Normalteiler von $\ker d_n$ und
  $C_n$. Definiere die $n$-te Homologiegruppe des Kettenkomplexes als
  die Quotientengruppe $H_n:=\ker d_n/\im d_{n+1}$. Wir verwenden
  folgende Bezeichnungen:
  \begin{enumerate}[(i)]
  \item Elemente in $\ker d_n$ hei\ss{}en Zykel.
  \item Elemente in $\im d_{n+1}$ hei\ss{}en R\"ander.
  \item Die Nebenklassen von $\im d_{n+1}$, $a+\im d_{n+1}$, in $H_n$
    hei\ss{}en Homologieklassen. 
  \item Zwei Zykel, die dieselbe Homologieklasse repr\"asentieren,
    hei\ss{}en homolog. (Daher unterscheiden sich zwei homologe Zykel
    um einen Rand.)
  \end{enumerate}
\end{definition}

\begin{definition}\label{ku ex seq ketten komp def}
  Ein \emph{kurze exakte Sequenz von Kettenkomplexen} 
  $$0\to A\to B\to C\to0$$ ist ein kommutatives Diagramm der Form
  \[\xymatrix{&0\ar[d]&0\ar[d]&0\ar[d]&\\
    \ldots\ar[r]^-d&A_{n+1}\ar[r]^-d\ar[d]^-i
    &A_{n}\ar[r]^-d\ar[d]^-i
    &A_{n-1}\ar[r]^-d\ar[d]^-i&\ldots\\
    \ldots\ar[r]^-d&B_{n+1}\ar[r]^-d\ar[d]^-j
    &B_{n}\ar[r]^-d\ar[d]^-j
    &B_{n-1}\ar[r]^-d\ar[d]^-j&\ldots\\
    \ldots\ar[r]^-d&C_{n+1}\ar[r]^-d\ar[d]
    &C_{n}\ar[r]^-d\ar[d]
    &C_{n-1}\ar[r]^-d\ar[d]&\ldots\\
    &0&0&0&}\]
  in dem die Zeilen Kettenkomplexe und die Spalten kurze exakte
  Sequenzen sind.
\end{definition}

\begin{lemma}
  Sei $(i_n)_{n\in\N}$ eine Folge von Abbildungen zwischen den Gruppen
  der Kettenkomplexe $\left(A,d^A\right)$ und $\left(B,d^B\right)$, so
  dass das Diagramm
  \[\xymatrix{\ldots\ar[r] &A_{n+1}\ar[r]^-{d^A_{n+1}}
    \ar[d]^-{i_{n+1}} &A_n\ar[r]\ar[d]^-{i_n} &\ldots\\
    \ldots\ar[r]& B_{n+1}\ar[r]^-{d^B_{n+1}} &B_n\ar[r] &\ldots}\] 
  kommutiert. Dann ist die vertreterweise definierte Abbildung
  \begin{align*}
    (i_n)_*\colon H_n(A)\to &\,H_n(B),\\
    [a]\mapsto&\,[i_na]
  \end{align*}
  wohldefiniert. Solch eine Abbildung $i=(i_n)_n$ nennen wir eine
  Kettenabbildung. $i_*$ hei\ss{}t die von $i$ induzierte
  Abbildung. \par Ist $j\colon \left(B,d^B\right)\to
  \left(C,d^C\right)$ eine weitere Kettenabbildung, so gilt $(j\circ
  i)_* =j_*\circ i_*$. Schlie\ss{}lich gilt $\id_*=\id$.
\end{lemma}
\begin{proof}[Beweis]
  Wir zeigen nur den nichttrivialen Teil, die Wohldefiniertheit von
  $(i_n)_*$. Seien $a,a'\in A_n$ mit $a-a'\in\im d^A_{n+1}$. Gelte
  also $a'=a+d^A_{n+1}\alpha$ f\"ur ein $\alpha\in A_{n+1}$. Dann
  folgt aufgrund der Kommutativit\"at des Diagrammes
  \begin{align*}
    (i_n)_*(a) =&\,[i_n(a)],\\
    (i_n)_*\left(a+d^A_{n+1}\alpha\right)
    =&\,\left[i_na+i_nd^A_{n+1}\alpha\right]
    =\left[i_na+d^B_{n+1}(i_{n+1}\alpha)\right] =[i_na].\qedhere
  \end{align*}
\end{proof}

\begin{theorem}\label{alg lange ex hom seq thm}
  Sei $0\to A\to B\to C\to 0$ eine kurze exakte Sequenz von
  Kettenkomplexen mit Bezeichnungen wie in Definition \ref{ku ex seq
    ketten komp def}. Seien \[H_n(\cdot):=\ker d/\im d\] f\"ur
  $\cdot=A,\,B,\,C$ die zugeh\"origen Homologiegruppen.  Dann gibt es
  eine Abbildung $\partial:H_n(C)\to H_{n-1}(A)$ f\"ur alle $n$, so
  dass
  \begin{align*}
    &\xymatrix@1{\ldots\ar[r]&H_n(A)\ar[r]^-{i_*}&H_n(B)\ar[r]^-{j_*}
      &H_n(C)\ar[r]^-\partial&}\\
    &\xymatrix@1{\ar[r]^-\partial&H_{n-1}(A)\ar[r]^-{i_*}&H_{n-1}(B)
      \ar[r]^-{j_*}&H_{n-1}(C)\ar[r]&\ldots}
  \end{align*}
  eine lange exakte Sequenz von Homologiegruppen ist.
\end{theorem}
\begin{proof}[Beweis]
  Zun\"achst einmal konstruieren wir die Abbildung $\partial$.  (Dann
  werden wir die Exaktheit der Sequenz beweisen.) \par
  Die Randabbildung $\partial$ soll eine Abbildung $\partial:H_n(C)\to
  H_{n-1}(A)$ sein. Sei also $c\in C_n$ ein Zykel.  Da $j$ surjektiv
  ist, gibt es ein $b\in B_n$ mit $c=j(b)$. (Beachte, dass es hier
  zun\"achst einmal nur darum geht, dem Element $c\in C_n$ ein Element
  $\partial c\in A_{n-1}$ zuzuordnen. Erst sp\"ater wollen wir uns um
  die Wohldefiniertheit k\"ummern.) Aufgrund der Kommutativit\"at des
  Diagramms in der kurzen exakten Sequenz von Kettenkomplexen gilt $jd
  b=d jb=d c=0$, wobei wir ausgenutzt haben, dass $c=jb$ ist und dass
  $c$ ein Zykel ist, also $d c=0$ erf\"ullt. Also gilt $B_{n-1}\ni d
  b\in\ker j$. \par
  Da die Sequenz exakt ist, gilt $\im i=\ker j$ und somit finden wir
  ein $a\in A_{n-1}$, so dass $ia=d b$ ist. Das Element $a$ ist ein
  Zykel, denn es gilt $id a=d ia=dd b=0$ aufgrund der Kommutativit\"at
  des Diagrammes, wegen $ia=d b$ und da $d^2=0$ ist. $d a=0$ folgt
  nun, denn $i$ ist injektiv. \par
  Wir definieren nun $d:H_n(C)\to H_{n-1}(A)$ durch $d[c]:=[a]$, wobei
  $[\cdot]$ die jeweiligen Homologieklassen bezeichnet. \par
  Nachweis der Wohldefiniertheit:
  \begin{itemize}
  \item $a$ ist eindeutig durch $d b$ bestimmt, denn $i$ ist
    injektiv. 
  \item W\"ahlt man statt $b$ ein anderes Element $b'\in B_n$, so dass
    $j(b')=j(b)$ gilt, so ist $b'-b\in\ker j=\im i$. Also gibt es ein
    $a'\in A_n$ mit $b'-b=ia'$ oder $b'=b+ia'$. Dann erh\"alt man
    statt $a\in A_{n-1}$ das Element $a+d a'$, denn es gilt
    $i(a+d a')=ia+id a'=d b+d
    ia'=d(b+ia')$ und somit erf\"ullt $a+d a'$ die oben
    angegebene Vorschrift, um aus $b\in B_n$ ein Element $a\in
    A_{n-1}$ zu gewinnen. Bei Betrachtung der Homologiegruppen ist
    aber $[a]=[a+d a']$, da sich die Repr\"asentanten nur um
    ein Element in $\im d$ unterscheiden.
  \item Sei $c+d c'$ ein anderer Vertreter f\"ur die
    Homologieklasse $[c]$ mit $c'\in C_{n+1}$. Da $j$ surjektiv ist,
    finden wir $b'\in B_{n+1}$ mit $jb'=c'$. Dann gilt $c+d
    c'=c+d j b'=c+jd b'=j(b+d b')$ aufgrund der
    Kommutativit\"at des Diagramms. Also wird $b$ in der obigen
    Konstruktion durch $b+d b'$ ersetzt, aber $d
    b=d(b+d b')$ wegen $d^2=0$ und somit sind wir
    in $B_{n-1}$ wieder bei $d b$, was auch wieder dasselbe
    $a\in A_{n-1}$ liefert.
  \end{itemize} \par
  Die Abbildung $\partial:H_n(C)\to H_{n-1}(A)$ ist ein
  Homomorphismus, denn wenn $\partial[c_1]=[a_1]$ und
  $\partial[c_2]=[a_2]$ verm\"oge $b_1$ bzw.{} $b_2$ gelten, dann ist
  $j(b_1+b_2)=jb_1+jb_2=c_1+c_2$ und $i(a_1+a_2)=ia_1+ia_2=d b_1+d
  b_2=d(b_1+b_2)$. Somit gilt auch
  $\partial([c_1]+[c_2])=[a_1]+[a_2]$. Hier haben wir (\"ofters)
  benutzt, dass wir schon wissen, dass alle Abbildungen, au\ss{}er der
  neu konstruierten Randabbildung $\partial$, Homomorphismen
  sind. \par
  Nun wollen wir nachrechnen, dass die angegebene Sequenz (an jeder
  Stelle) exakt ist.
  \[\xymatrix@1{H_n(A)\ar[r]^-{i_*}&H_n(B)\ar[r]^-{j_*}
    &H_n(C)\ar[r]^-\partial&H_{n-1}(A)\ar[r]^-{i_*}&H_{n-1}(B)}\] Es
  sind die folgenden sechs Inklusionen nachzurechnen:
  \begin{itemize}
  \item $\im i_*\subset\ker j_*$: Es gilt $ji=0$, da das Diagramm
    exakt ist. Somit gilt auch $j_*i_*=0$ und die Behauptung folgt.
  \item $\im j_*\subset\ker \partial$: Sei $b$ ein Zykel. Dann ist
    $j_*[b]$ ein beliebiges Element in $\im j_*$ und es gilt $d^Bb=0$.
    Somit ist nach Definition $a=0$ in der Konstruktion von $\partial$
    und die Behauptung folgt.
  \item $\im\partial\subset\ker i_*$: Mit den Bezeichnungen aus der
    Konstruktion von $\partial$ gilt $i_*\partial[c]=[d b]=0$, da in
    $H_\cdot(B)$ \"Aquivalenzklassen modulo $\im d$ betrachtet werden.
  \item $\ker j_*\subset\im i_*$: Nach Definition besitzt eine
    Homologieklasse in $\ker j_*$ als Vertreter einen Zykel $b\in
    B_n$, so dass $jb$ ein Rand ist (und daher $j_*[b]=0$ gilt). Also
    gibt es $c'\in C_{n+1}$ mit $d c'=jb$. Da $j$ surjektiv ist,
    finden wir $b'\in B_{n+1}$, so dass $c'=j(b')$ gilt. Es gilt $d
    jb'=d c'=jb$ und daher folgt $j(b-d b')=jb-jd b'=jb-d jb'=0$. Also
    ist $b-d b'\in\ker j=\im i$ aufgrund der Exaktheit der kurzen
    exakten Sequenzen. Daher gibt es $a\in A_n$ mit $ia=b-d b'$. Es
    gilt $id a=d ia=d(b-d b')=d b=0$, da $b$ ein Zykel ist. Nun ist
    $i$ injektiv und daher ist auch $a$ ein Zykel. Somit folgt
    $i_*[a]=[b-d b']=[b]$. Somit haben wir zu einer Homologieklasse
    $[b]\in\ker j_*$ ein $a$ gefunden, so dass $i_*[a]=[b]$ gilt, also
    folgt $\ker j_*\subset\im i_*$ wie behauptet.
  \item $\ker\partial\subset\im j_*$: Wir verwenden wieder die
    Bezeichnungen aus der Konstruktion von $\partial$. Sei $c$ ein
    Vertreter einer Homologieklasse in $\ker\partial$. Dann gilt $a=d
    a'$ f\"ur ein $a'\in A_n$. Dann ist $b-ia'$ ein Zykel, denn es
    gilt $d(b-ia')=d b-d ia'=d b-id a'=d b-ia=0$ nach Wahl von
    $a$. Weiterhin gilt $j(b-ia')=jb-jia'=jb=c$. Beachte, dass $j_*$
    auf $[b-ia']$ definiert ist, da $b-ia'$ ein Zykel ist. Es gilt
    $j_*[b-ia']=[c]$ und wir schlie\ss{}en, dass
    $\ker\partial\subset\im j_*$ gilt.
  \item $\ker i_*\subset\im\partial$: Sei $a\in A_{n-1}$ ein Zykel, so
    dass $[a]\in\ker i_*$ gilt. Dann gibt es $b\in B_n$ mit $ia=d
    b$. Es gilt $d jb=jd b=jia=0$ und somit ist $jb$ ein Zykel. Nach
    Definition von $\partial$ gilt schlie\ss{}lich noch
    $\partial[jb]=[a]$ und die Behauptung folgt. \qedhere
\end{itemize}
\end{proof}

\begin{lemma}[F\"unferlemma]
  Sei 
  \[\xymatrix{A\ar[r]^-i\ar[d]^-\alpha&B\ar[r]^-j\ar[d]^-\beta
    &C\ar[r]^-k\ar[d]^-\gamma&D\ar[r]^-l\ar[d]^-\delta
    &E\ar[d]^-\epsilon\\
    A'\ar[r]^-{i'}&B'\ar[r]^-{j'}&C'\ar[r]^-{k'}
    &D'\ar[r]^-{l'}&E'}
  \]
  ein kommutatives Diagramm abelscher Gruppen mit exakten Zeilen. Sind
  die Homomorphismen $\alpha,\,\beta,\,\delta$ und $\epsilon$
  Isomorphismen, so ist auch $\gamma$ ein Isomorphismus.
\end{lemma}
\begin{proof}[Beweis]
  Wir werden zeigen, dass
  \begin{enumerate}[(i)]
  \item $\gamma$ surjektiv ist, wenn $\beta$ und $\delta$ surjektiv
    und $\epsilon$ injektiv sind,
  \item $\gamma$ injektiv ist, wenn $\beta$ und $\delta$ injektiv sind
    und $\alpha$ surjektiv ist.
  \end{enumerate}
  Damit k\"onnen wir die Voraussetzungen an $\alpha$ und $\epsilon$
  abschw\"achen. 
  \begin{enumerate}[(i)]
  \item Sei $c'\in C'$. Da $\delta$ surjektiv ist, gibt es ein $d\in
    D$, so dass $\delta d=k'c'$ gilt. Es gilt $\epsilon ld=l'\delta
    d=l'k'c'=0$, da insbesondere die letzte Zeile exakt ist. Aus
    $\epsilon ld=0$ und der Injektivit\"at von $\epsilon$ folgt
    $ld=0$. Da die erste Zeile exakt ist, finden wir ein $c\in C$, so
    dass $d=kc$ gilt. Es gilt $k'(c'-\gamma c)=k'c'-k'\gamma c=
    k'c'-\delta kc=k'c'-\delta d=0$ aufgrund von schon hergeleiteten
    Identit\"aten. Aufgrund der Exaktheit gibt es ein $b'\in B'$, so
    dass $c'-\gamma c=j'b'$ gilt. Weil $\beta$ surjektiv ist,
    existiert $b\in B$ mit $b'=\beta b$. Es gilt nun
    $\gamma(c+jb)=\gamma c+\gamma jb=\gamma c+j'\beta b=\gamma
    c+j'b'=c'$ und daher ist $\gamma$ surjektiv. 
  \item Sei nun $c\in C$ mit $\gamma c=0$. Es gilt $\delta kc=k'\gamma
    c=0$. Da $\delta$ injektiv ist, folgt auch $kc=0$. Daher gibt es
    ein $b\in B$ mit $c=jb$. Es gilt $j'\beta b=\gamma jb=\gamma c=0$.
    Aufgrund der Exaktheit finden wir also $a'\in A'$, so dass $\beta
    b=i'a'$ gilt. Nun ist $\alpha$ surjektiv, es gibt also ein $a\in
    A$, so dass $a'=\alpha a$ ist. Es gilt $\beta(ia-b)=\beta ia-\beta
    b=i'\alpha a-\beta b=i'a'-\beta b=0$. Da $\beta$ injektiv ist,
    folgt auch $ia-b=0$ oder, \"aquivalent dazu, $b=ia$. Weiterhin
    gilt $c=jb=jia=0$ aufgrund der Exaktheit ($ji=0$). Also ist
    $\ker\gamma$ trivial und $\gamma$ injektiv. \qedhere
  \end{enumerate}
\end{proof}

\Section{Darstellungstheorie}
Wir folgen \cite{SerreRepresentations}. \par
Sei $V$ hier stets ein endlichdimensionaler $\C$-Vektorraum und
$GL(V)$ die Gruppe der Isomorphismen $V\to V$. Isomorphismen $V\to V$
hei\ss{}en auch Automorphismen, $\Aut(V)$. Wir nehmen der Einfachheit
halber stets an, dass alle Gruppen $G$, die dargestellt werden,
endliche Gruppen sind.

\Subsection{Darstellungen endlicher Gruppen}
\begin{definition}[Darstellung]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $G$ eine Gruppe und $V$ ein Vektorraum. Dann hei\ss{}t ein
    Gruppenhomomorphismus $\rho\colon G\to GL(V)$ eine (lineare)
    Darstellung, \dh es gilt \[\rho(st)=\rho(s)\rho(t)\quad\text{f\"ur
      alle }s,t\in G.\] Wir schreiben auch $\rho_s\equiv\rho(s)$. (Es
    folgen $\rho(1)=1$ sowie $\rho(s^{-1}) =(\rho(s))^{-1}$.) Wir
    sagen auch, dass $V$ eine Darstellung sei. 
  \item $\dim V=:n$ hei\ss{}t der Rang der Darstellung. 
  \item In Matrixform ist eine Darstellung durch $G\ni s\mapsto
    R_s\in\C^{n\times n}$ mit $\det R_s\neq0$ und $R_{st}=R_sR_t$
    gegeben. $R_s$ ist dabei die $\rho_s$ bez\"uglich einer fixierten
    Basis darstellende Matrix.
  \item Seien $\rho\colon G\to V$ und $\rho'\colon G\to V'$ zwei
    Darstellungen. Dann hei\ss{}en $\rho$ und $\rho'$ \"ahnlich (oder
    isomorph), falls sie durch einen linearen Isomorphismus
    $\tau\colon V\to V'$ verm\"oge \[\tau\rho(s) =\rho'(s)\tau
    \quad\text{f\"ur alle }s\in G\] verkn\"upft sind. In Matrixform
    bedeutet dies, dass es eine invertierbare Matrix $T\in\C^{n\times
      n}$ mit $TR_s=R'_sT$ oder $R'_s=TR_sT^{-1}$ f\"ur alle $s\in G$
    gilt. (Dabei ist $R'_s$ die $\rho'(s)$ bez\"uglich einer festen
    Basis von $V'$ zugeordnete Matrix.)
  \end{enumerate}
\end{definition}

\begin{beispiele}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Eine Darstellung vom Grad $1$ ist ein Gruppenhomomorphismus
    $\rho\colon G\to\C^*\equiv\C\setminus\{0\}$. Da in einer endlichen
    Gruppe $G$ jedes Element $s\in G$ endliche Ordnung hat (\dh es
    gibt ein $k\in\N$ mit $s^k=1$), ist $\rho(s)$ eine Einheitswurzel,
    also von der Form $e^{\frac{2\pi il}k}$ f\"ur ein
    $l\in\N$. Insbesondere folgt $|\rho(s)|=1$ f\"ur alle $s\in G$. 
  \item Die Darstellung mit $\rho(s)=1$ f\"ur alle $s\in G$ hei\ss{}t
    trivial. 
  \item Sei $g=|G|$ die Ordnung (= die Anzahl der Elemente) von
    $G$. Sei $V$ ein Vektorraum der Dimension $g$ mit Basiselementen
    $(e_t)_{t\in G}$, indiziert durch die Gruppenelemente. Sei
    $\rho(s)\colon V\to V$ die lineare Abbildung mit $e_t\mapsto
    e_{st}$ (Beachte die Reihenfolge der Indices.). Dies ist eine
    Darstellung, die regul\"are Darstellung. Der Grad dieser
    Darstellung ist $g$. Wegen $e_s=\rho_s(e_1)$ bilden die Bilder von
    $e_1$ eine Basis von $V$. \par Sei umgekehrt $\tau\colon G\to W$
    eine Darstellung von $G$ mit $w\in W$, so dass die Vektoren
    $\{\tau_s(w)\}_{s\in G}$ eine Basis von $W$ bilden. Dann ist
    $\tau$ verm\"oge \[\Phi\colon V\to W, \quad \Phi(e_s)=\tau_s(w),\] 
    zur regul\"aren Darstellung isomorph, denn es gilt f\"ur alle
    $s,t\in G$ \[\Phi\rho_s\Phi^{-1}(\tau_t(w))=\tau_s(\tau_t(w)).\] 
  \item Allgemeiner ist folgendes Beispiel: Operiere die Gruppe $G$
    auf einer endlichen Menge $X$ durch Permutation, \dh $x\mapsto sx$
    ist f\"ur alle $s$ eine Permutation mit den
    Eigenschaften \[1x=x\quad\text{und}\quad s(tx)=(st)x\] f\"ur alle
    $x\in X$, $s,t\in G$. \par Sei $V$ ein Vektorraum mit einer Basis
    $\{e_x\}_{x\in X}$, indiziert durch die Elemente von $X$. F\"ur
    $s\in X$ definieren wir eine lineare Abbildung $\rho_s\in\Aut(V)$
    durch $e_x\mapsto e_{sx}$. Dies ist eine Darstellung. Sie
    hei\ss{}t Permutationsdarstellung. 
  \end{enumerate}
\end{beispiele}

\Subsection{Teildarstellungen}
\begin{definition}
  Sei $\rho\colon G\to GL(V)$ eine Darstellung. Sei $W\subset V$ ein
  Unterraum, der f\"ur alle $\rho_s$ invariant (= stabil) ist. Dann
  hei\ss{}t $W$ unter $G$ invariant oder stabil. \par Somit ist
  $\rho^W_s:=\rho_s|_W\colon W\to W$ in $\Aut(W)$ und es gilt
  $\rho^W_{st}=\rho^W_s\rho^W_t$. Daher ist $\rho^W\colon G\to GL(W)$
  eine lineare Darstellung von $G$ in $W$. $W$ hei\ss{}t
  Teildarstellung von $V$.
\end{definition}

\begin{beispiel}
  Sei $V$ die regul\"are Darstellung von
  $G$. Setze \[x:=\sum\limits_{s\in G}e_s,\quad W:=\langle x\rangle.\]
  Dann gilt $\rho_sx=x$ f\"ur alle $s\in G$. Somit ist $W$ eine
  Teildarstellung von $V$. Diese Darstellung ist isomorph zur
  trivialen Darstellung. 
\end{beispiel}

\begin{remark}
  Seien $W,W'$ Unterr\"aume von $V$ mit $V=W\oplus W'$. Dann l\"asst
  sich jedes $v\in V$ in eindeutiger Weise als $w+w'$ mit $w\in W$ und
  $w'\in W'$ schreiben. Wir erhalten also eine Projektion $p\colon
  V\to V$ (= eine Abbildung mit $p|_{\im p}=\id$) von $V$ nach
  $W\subset V$ mit $v\mapsto w$. \par Umgekehrt liefert jede
  Projektion $p\colon V\to V$ eine Zerlegung von $V$ als direkte
  Summe: $V=\im p\oplus\ker p$. \par Wir erhalten eine bijektive
  Beziehung zwischen den Projektionen $p$ von $V$ nach $W$ und den
  Komplementen von $W$ in $V$.
\end{remark}

\begin{theorem}\label{inv komp exist}
  Sei $\rho\colon G\to GL(V)$ eine lineare Darstellung von $G$ in $V$
  und sei $W\subset V$ ein unter $G$ invarianter Unterraum. Dann
  besitzt $W$ in $V$ ein unter $G$ invariantes Komplement. 
\end{theorem}
\begin{proof}[Beweis]
  W\"ahle ein beliebiges Komplement von $W$ in $V$: $W'$. Sei $p\colon
  V\to V$ die zu $V=W\oplus W'$ geh\"orige Projektion von $V$ nach
  $W$. Sei $g=|G|$. Definiere \[p^0:=\tfrac1g\sum\limits_{t\in
    G}\rho_t p\rho_t^{-1}.\]\par Behauptung: Die Abbildung $p$ ist auf
  $W$ die Identit\"at und bildet $V$ nach $W$ ab: Sei $x\in W$. Dann
  ist $\rho_t^{-1}x\in W$ nach Voraussetzung. Dort ist $p$ aber die
  Identit\"at, also $p\rho_t^{-1}x=\rho_t^{-1}x$,
  $\rho_tp\rho_t^{-1}x=x$ und es folgt, dass $p^0$ auf $W$ die
  Identit\"at ist. $\im p^0\subset W$ folgt, da $p$ auf $W$ projiziert
  und $\rho_t$ den Unterraum $W$ invariant l\"asst.\par
  Behauptung: F\"ur alle $s\in G$ gilt $\rho_sp^0=p^0\rho_s$, die
  beiden Abbildungen kommutieren also, denn es
  gilt \[\rho_sp^0\rho_s^{-1} =\frac1g\sum\limits_{t\in
    G}\rho_s\rho_tp\rho_t^{-1}\rho_s^{-1} =\frac1g\sum\limits_{t\in G}
  \rho_{st}p\rho_{st}^{-1} =p^0.\] \par Setze $W^0:=\ker p^0$. Wir
  behaupten, dass $W^0$ unter $G$ invariant ist: Seien $x\in W^0$ und
  $s\in G$. Dann folgt $p^0x=0$, also $p^0\rho_sx=\rho_sp^0x=0$. Somit
  ist $\rho_sx\in W^0$. $W^0$ ist also der gesuchte Unterraum.
\end{proof}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ist $V$ ein Skalarproduktraum, so k\"onnen wir Theorem
    \ref{inv komp exist} auch wie folgt beweisen: Erf\"ullt das
    Skalarprodukt nicht $\langle\rho_sx,\rho_sy\rangle =\langle
    x,y\rangle$ f\"ur alle $s\in G$ und $x\in V$, so ersetzen wir es
    durch $\langle x,y\rangle_\rho:=\frac1g\sum\limits_{t\in
      G}\langle\rho_t x,\rho_t y\rangle$. Dies erf\"ullt dann
    $\langle\rho_sx,\rho_sy\rangle_\rho =\langle x,y\rangle_\rho$. Wir
    sagen, das Skalarprodukt $\langle\cdot,\cdot\rangle_\rho$ sei
    unter $\rho$ invariant. (Wir bemerken, dass die
    Matrixdarstellungen $R_t$ einer Darstellung mit einem invarianten
    Skalarprodukt bez\"uglich einer Orthonormalbasis unit\"ar sind.)
    Dann ist das orthogonale Komplement $W^0$ von $W$ bez\"uglich
    $\langle\cdot,\cdot\rangle_\rho$: Sei $x\in W^0$ und $y\in W$. Sei
    $t\in G$ beliebig. Setze $z:=\rho_t^{-1}y$. Dann ist $z\in W$ und
    es folgt \[0\overset!=\langle\rho_tx,y\rangle
    =\langle\rho_tx,\rho_tz\rangle =\langle x,z\rangle=0.\]
  \item Ist $V=W\oplus W^0$ eine Zerlegung in unter $G$ invariante
    Unterr\"aume, so wird $\rho_t$ in einer Basis von $V$, die aus den
    Elementen einer Basis von $W$ und von $W^0$ (in geeigneter
    Reihenfolge) zusammengesetzt ist, durch eine Matrix der Form 
    \[
    \begin{pmatrix}
      R_t&0\\ 
      0&R^0_t
    \end{pmatrix}
    \]
    dargestellt. $R_t$ und $R^0_t$ geh\"oren zu Darstellungen $W$
    bzw.{} $W^0$ von $G$. Wir sagen, dass $V$ eine direkte Summe der
    Darstellungen $W$ und $W^0$ (bzw.{} $\rho^W$ und $\rho^{W^0}$)
    sei. Die direkte Summe von mehr als zwei Darstellungen ist analog
    definiert.
  \end{enumerate}
\end{remark}

\begin{definition}
  Eine Darstellung hei\ss{}t irreduzibel, wenn sie nicht die direkte
  Summe von zwei Darstellungen (au\ss{}er mit dem Vektorraum $\{0\}$)
  ist. 
\end{definition}

Per Induktion folgt aus Theorem \ref{inv komp exist} direkt
\begin{corollary}
  Jede Darstellung ist die direkte Summe von irreduziblen
  Darstellungen. 
\end{corollary}
Im Wesentlichen ist diese Zerlegung eindeutig. 

\Subsection{Tensorprodukt von Darstellungen}
\begin{definition}
  Seien $\rho^1\colon G\to GL(V_1)$ und $\rho^2\colon G\to GL(V_2)$
  zwei lineare Darstellungen. Dann definieren wir das Tensorprodukt
  $\rho:=\rho^1\otimes\rho^2\colon G\to GL(V_1\otimes V_2)$
  durch \[\rho_s(x\otimes y):=\rho^1_s(x)\otimes\rho^2_s(y)\] f\"ur
  $s\in G$ und $(x,y)\in V_1\times V_2$. $V_1\otimes V_2$ hei\ss{}t
  das Tensorprodukt der beiden Darstellungen. 
\end{definition}

\begin{remark}\label{tensor basis repr rem}
  Sei $\{a^1_i\}$ eine Basis von $V_1$ und $\{a^2_j\}$ eine Basis von
  $V_2$. Sei $\rho^k_s$ durch die Matrix $\left({}^k_sm^i_j\right)$
  dargestellt, gelte also \[\rho^k_s\left(a^k_j\right)=\sum\limits_i
  {}^k_sm^i_ja^k_i.\] Dann folgt aufgrund der Multilinearit\"at des
  Tensorproduktes \[\rho_s\left(a^1_i\otimes a^2_j\right)
  =\sum\limits_{k,l} {}^1_sm^k_i\cdot {}^2_sm^l_j\cdot a^1_k\otimes
  a^2_l.\] Nummeriert man die Basiselemente $\left\{a^1_k\otimes
    a^2_k\right\}_{k,l}$ mit einem Index, so sieht man, dass der
  Faktor ${}^1_sm^k_i\cdot{}^2_sm^l_j$ wieder als Eintrag einer
  gr\"o\ss{}eren Matrix aufgefasst werden kann. Diese bezeichnet man
  als Tensorprodukt der beiden Matrizen
  $\left({}^1_sm^k_i\right)_{k,i}$ und
  $\left({}^2_sm^l_j\right)_{l,j}$.
\end{remark}

\begin{remark}
  \neueZeilealt
  Das Tensorprodukt von zwei irreduziblen Darstellungen braucht selbst
  nicht wieder irreduzibel zu sein. 
\end{remark}

\begin{remark}[Symmetrisches Quadrat und alternierendes Quadrat]
  Sei $V$ ein Vektorraum. Definiere den Automorphismus $\theta\colon
  V\to V$ durch \[\theta(x\otimes y)=y\otimes x.\] Es gilt
  $\theta^2=1$. Den Eigenraum $E_1(\theta)$ bezeichnen wir mit
  $\Sym^2(V)$, den Eigenraum $E_{-1}(\theta)$ mit $\Alt^2(V)$. Sei
  $\{a_i\}_{1\le i\le n}$ eine Basis von $V$. Elemente der Form
  $\{a_i\otimes a_j+a_j\otimes a_i\}_{i\le j}$ bilden eine Basis von
  $\Sym^2(V)$ und Elemente der Form $\{a_i\otimes a_j-a_j\otimes
  a_i\}_{i<j}$ bilden eine Basis von $\Alt^2(V)$. Es
  gilt \[\dim\Sym^2(V)=\frac{n(n+1)}2 \quad\text{und}\quad
  \dim\Alt^2(V) =\frac{n(n-1)}2.\] 
  Sei $\rho\colon G\to GL(V)$ eine Darstellung. Unter der Darstellung
  $\rho\otimes\rho\colon G\to GL(V\otimes V)$ sind die Unterr\"aume
  $\Sym^2(V)$ und $\Alt^2(V)$ invariant. Die zugeh\"origen
  Einschr\"ankungen hei\ss{}en das symmetrische Quadrat bzw.{} das
  alternierende Quadrat der Darstellung $\rho$. 
\end{remark}

\Subsection{Charaktere}
\begin{definition}[Charakter]
  Sei $\rho\colon G\to GL(V)$ eine Darstellung. Dann hei\ss{}t
  $\chi_\rho\colon G\to\C$ mit \[\chi_\rho(s):=\tr R_s =\tr\rho_s\]
  der Charakter der Darstellung $\rho$. 
\end{definition}

\begin{proposition}\label{char elem eig prop}
  Sei $\chi$ der Charakter einer Darstellung $\rho$ vom Grad $n$. Dann
  gilt:
  \begin{enumerate}[(i)]
  \item $\chi(1)=n$.
  \item $\chi\left(s^{-1}\right) =\overline{\chi(s)}$ f\"ur $s\in G$. 
  \item $\chi\left(tst^{-1}\right)=\chi(s)$ f\"ur $s,t\in G$. 
  \end{enumerate}
\end{proposition}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Folgt aus $\rho(1)=\eins$. 
  \item Wir haben gesehen, dass $R_s$ bei einem geeigneten
    Skalarprodukt eine unit\"are Matrix ist. Somit besitzt es $n$
    komplexe Eigenwerte $\lambda_1,\ldots,\lambda_n$ (mit
    Vielfachheiten gez\"ahlt) vom Betrag $1$. Es
    folgt \[\overline{\chi(s)} =\overline{\tr\rho_s}
    =\sum\limits_{i=1}^n\ol{\lambda_i} =\sum\limits_{i=1}^n
    \lambda_i^{-1} =\tr\left(\rho_s^{-1}\right) =\tr\rho_{s^{-1}}
    =\chi\left(s^{-1}\right).\]
  \item Wir setzen $u=ts$ und $v=t^{-1}$. Dann ist die Behauptung
    \"aquivalent zu $\chi(uv)=\chi(vu)$ und folgt aus $\tr(AB)
    =\tr(BA)$. \qedhere
  \end{enumerate}
\end{proof}

\begin{proposition}\label{char sum prod prop}
  Seien $\rho^1\colon G\to GL(V_1)$ und $\rho^2\colon G\to GL(V_2)$
  zwei lineare Darstellungen von $G$ und $\chi_1$ und $\chi_2$ ihre
  Charaktere. Dann gilt:
  \begin{enumerate}[(i)]
  \item Der Charakter $\chi$ der direkten Summendarstellung $V_1\oplus
    V_2$ erf\"ullt $\chi=\chi_1+\chi_2$. 
  \item Der Charakter $\psi$ der Tensorproduktdarstellung $V_1\otimes
    V_2$ erf\"ullt $\psi=\chi_1\cdot\chi_2$. 
  \end{enumerate}
\end{proposition}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item In Matrixform ist die Darstellung durch 
    \[R_s=
    \begin{pmatrix}
      R^1_s&0\\
      0&R^2_s
    \end{pmatrix}\]
    gegeben. Somit folgt $\tr R_s=\tr R^1_s +\tr R^2_s$ und somit
    $\chi=\chi_1+\chi_2$. 
  \item Wir benutzen die Matrixdarstellung aus Bemerkung \ref{tensor
      basis repr rem} und erhalten \[\psi(s) =\sum\limits_{i,j}
    {}^1_sm^i_i\cdot {}^2_sm^j_j =\chi_1(s)\cdot\chi_2(s).\qedhere\] 
  \end{enumerate}
\end{proof}

\begin{proposition}
  Sei $\rho\colon G\to GL(V)$ eine lineare Darstellung mit Charakter
  $\chi$. Sei $\chi_\sigma^2$ der Charakter der Darstellung
  $\Sym^2(V)$ und $\chi_\alpha^2$ der Charakter der Darstellung
  $\Alt^2(V)$. Dann gilt f\"ur alle $s\in G$
  \begin{align*}
  \chi_\sigma^2(s) =&\,\tfrac12\left(\chi(s)^2
      +\chi\left(s^2\right)\right),\\
  \chi_\alpha^2(s) =&\,\tfrac12\left(\chi(s)^2
      -\chi\left(s^2\right)\right)
    \intertext{und}
  \chi_\sigma^2(s)+\chi_\alpha^2(s)=&\,\chi(s)^2.
  \end{align*}
\end{proposition}
\begin{proof}[Beweis]
  Sei $s\in G$. Da sich $\rho_s$ als unit\"are Matrix darstellen
  l\"asst, k\"onnen wir eine Basis $\{a_i\}_i$ aus Eigenvektoren von
  $\rho_s$ zu Eigenwerten $\{\lambda_i\}_i$ w\"ahlen. \par Es
  folgt \[\chi(s)=\sum\lambda_i \quad\text{und}\quad
  \chi\left(s^2\right)=\sum\lambda_i^2.\] Weiterhin erhalten wir aus
  \begin{align*}
    (\rho_s\otimes\rho_s)(a_i\otimes a_j+a_j\otimes a_i)
    =&\,\lambda_i\lambda_j(a_i\otimes a_j+a_j\otimes a_i)
    \intertext{und} (\rho_s\otimes\rho_s)(a_i\otimes a_j-a_j\otimes
    a_i) =&\,\lambda_i\lambda_j(a_i\otimes a_j-a_j\otimes a_i)
    \intertext{die Beziehungen} \chi_\sigma^2(s) =\sum\limits_{i\le
      j}\lambda_i\lambda_j =\sum\limits_i\lambda_i^2
    +\sum\limits_{i<j}\lambda_i\lambda_j
    =&\,\tfrac12\left(\sum\limits_i\lambda_i\right)^2
    +\tfrac12\sum\limits_i\lambda_i^2 \intertext{und} \chi_\alpha^2(s)
    =\sum\limits_{i<j}\lambda_i\lambda_j 
    =&\,\tfrac12\left(\sum\limits_i\lambda_i\right)^2
    -\tfrac12\sum\limits_i\lambda_i^2.
  \end{align*}
  Die Behauptung folgt. (Beachte, dass \[V\otimes V
  =\Sym^2(V)\oplus\Alt^2(V)\] mit Proposition \ref{char sum prod prop}
  einen weiteren Beweis von $\chi^2=\chi_\sigma^2+\chi_\alpha^2$
  liefert.)
\end{proof}

\Subsection{Lemma von Schur}
\begin{proposition}[Lemma von Schur]
  Seien $\rho^1\colon G\to GL(V_1)$ und $\rho^2\colon G\to GL(V_2)$
  zwei irreduzible Darstellungen von $G$. Sei $f\colon V_1\to V_2$
  linear mit $\rho^2_sf=f\rho^1_s$ f\"ur alle $s\in G$. Dann
  gilt:
  \begin{enumerate}[(i)]
  \item Sind $\rho^1$ und $\rho^2$ nicht isomorph, so gilt $f=0$. 
  \item Ist $V_1=V_2$ und $\rho^1=\rho^2$, so ist $f$ ein skalares
    Vielfaches der Identi\"at (= eine Homothetie). 
  \end{enumerate}
\end{proposition}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sind $\rho^1$ und $\rho^2$ nicht isomorph, so ist der Kern von
    $f$ nicht trivial. Sei $a\in\ker f$. Die Menge
    $\{\rho^1_sa\}_{s\in G}$ erzeugt einen unter $\rho^1$ invarianten
    Unterraum $U_1$. Da $\rho^1$ jedoch irreduzibel ist, folgt
    $U_1=V_1$. Wir erhalten $0=\rho^2_sfa =f\rho^1_sa$. Somit ist
    $\{\rho^1_sa\}_{s\in G}\subset\ker f$. Da $\ker f$ ein Unterraum
    ist, gilt die Inklusion auch, wenn wir links zum Erzeugnis
    \"ubergehen. Also ist $U_1=V_1\subset\ker f$ und daher
    $f\equiv0$. 
  \item Sei $\lambda$ ein Eigenwert von $f$. Da $\C$ der zugrunde
    liegende K\"orper ist, existiert zumindest ein Eigenwert. Setze
    $f':=f-\lambda$. Es gilt $\ker f'\neq\{0\}$. Nun liefert der erste
    Teil $f'\equiv0$, also $f=\lambda\id$. \qedhere
  \end{enumerate}
\end{proof}

\begin{corollary}\label{Schur cor 1}
  Seien $V_1$ und $V_2$ zwei irreduzible Darstellungen von $G$ mit
  Gruppenordnung $g$, \dh $g=|G|$. Sei $h\colon V_1\to V_2$
  linear. Setze \[h^0:=\frac1g\sum\limits_{t\in
    G}(\rho^2_t)^{-1}h\rho^1_t.\] Dann gilt
  \begin{enumerate}[(i)]
  \item Sind $\rho^1$ und $\rho^2$ nicht isomorph, so gilt $h^0=0$. 
  \item Sind $V_1=V_2$, $\rho^1=\rho^2$ und $\dim V_1=n$, so gilt
    $h^0=\frac1n\tr h\cdot\id$. 
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  Die Abbildung $h^0$ erf\"ullt die Bedingungen an $f$ aus dem
  Schurschen Lemma, denn es
  gilt \[\left(\rho^2_s\right)^{-1}h^0\rho^1_s
  =\frac1g\sum\limits_{t\in G}
  \left(\rho^2_s\right)^{-1}\left(\rho^2_t\right)^{-1}h
  \rho^1_t\rho^1_s =\frac1g\sum\limits_{t\in
    G}\left(\rho^2_{ts}\right)^{-1} h\rho^1_{ts} =h^0.\] F\"ur nicht
  isomorphe Darstellungen $\rho^1$ und $\rho^2$ liefert daher das
  Schursche Lemma $h^0=0$. Sonst liefert das Schursche Lemma
  $h^0=\lambda\id$ f\"ur ein $\lambda\in F$. Es
  folgt \[n\lambda=\tr(\lambda\id) =\tr h^0 =\frac1g\sum\limits_{t\in
    G} \tr\left(\left(\rho^1_t\right)^{-1} h\rho^1_t\right) =\tr
  h.\qedhere\]
\end{proof}

Mit naheliegenden Bezeichnungen erhalten wir daraus in
Matrixform \[\left(h^0\right)^i_j =\frac1g\sum\limits_{t\in
  G}\sum\limits_{k,l} \left(\rho^2_{t^{-1}}\right)^i_k
h^k_l\left(\rho^1_t\right)^l_j.\] F\"ur nicht isomorphe irreduzible
Darstellungen $\rho^1$ und $\rho^2$ gilt nach Korollar \ref{Schur cor
  1} $h^0=0$, unabh\"angig von $h$. Da die rechte Seite in der obigen
Gleichung linear in $h$ ist, ist dies nur m\"oglich, wenn der Rest der
Summe bereits verschwindet. Wir erhalten also
\begin{corollary}\label{versch darst cor}
  Seien $\rho^1,\rho^2$ zwei nicht isomorphe irreduzible
  Darstellungen, so gilt f\"ur beliebige $i,j,k,l$
  \[\frac1g\sum\limits_{t\in G}\left(\rho^2_{t^{-1}}\right)^i_k
  \left(\rho^1_t\right)^l_j=0.\] 
\end{corollary}

Im Fall $V_1=V_2$, $\rho^1=\rho^2$, $\dim V_1=n$ gilt $h^0=\frac1n\tr
h\cdot\id$, \dh in Matrixform \[\frac1g\sum\limits_{t\in
  G}\sum\limits_{k,l} \left(\rho^1_{t^{-1}}\right)^i_k h^k_l
\left(\rho^1_t\right)^l_j =\frac1n\sum\limits_kh^k_k\delta^i_j
=\frac1n\sum\limits_{k,l}\delta^i_j h^k_l\delta^l_k.\] Da dies f\"ur
jede lineare Abbildung $h\colon V_1\to V_2$ gilt, erhalten wir
\begin{corollary}\label{gl darst cor}
  Seien $V_1=V_2$, $\rho^1=\rho^2$, $\dim V_1=n$, so gilt f\"ur
  beliebige $i,j,k,l$ \[\frac1g\sum\limits_{t\in
    G}\left(\rho^1_{t^{-1}}\right)^i_k\left(\rho^1_t\right)^l_j
  =\frac1n\delta^i_j\delta^l_k.\]
\end{corollary}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Die beiden Korollare werden wir noch als
    Orthogonalit\"atsrelationen im Falle unit\"arer Darstellungen (=
    die $\rho_t$ darstellenden Matrizen sind unit\"ar) interpretieren.
  \item F\"ur Funktionen $\phi,\psi$ auf $G$ definieren wir 
    \[(\phi,\psi):=\frac1g\sum\limits_{t\in G} \phi\left(t^{-1}\right)
    \psi(t) =\frac1g\sum\limits_{t\in
      G}\phi(t)\psi\left(t^{-1}\right).\] Es gilt
    $(\phi,\psi)=(\psi,\phi)$ und $(\phi,\psi)$ ist in $\phi$ und
    $\psi$ linear. Aus den oberen Korollaren erhalten wir mit dieser
    Notation \[\left(\left(\rho^1\right)^i_k,
      \left(\rho^1\right)^l_j\right)=0 \quad\text{bzw.}\quad 
    \left(\left(\rho^1\right)^i_k,\left(\rho^1\right)^l_j\right)
    =\frac1n\delta^i_j\delta^l_k\] f\"ur beliebige $i,j,k,l$. 
  \end{enumerate}
\end{remark}

\Subsection{Orthogonalit\"atsrelationen f\"ur Charaktere}
\begin{definition}
  Sei $G$ eine Gruppe der Ordnung $g$. Seien $\phi,\psi\colon
  G\to\C$. Dann definieren wir \[\langle\phi,\psi\rangle :=\frac1g
  \sum\limits_{t\in G}\phi(t)\ol{\psi(t)}.\] 
\end{definition}

\begin{remark}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Dies ist ein Skalarprodukt, denn es ist linear in $\phi$,
    sesquilinear in $\psi$ und es gilt $\langle\phi,\phi\rangle>0$
    f\"ur $\phi\not\equiv0$.
  \item Setze $\check{\psi}(t):=\ol{\psi\left(t^{-1}\right)}$. Dann
    folgt \[\langle\phi,\psi\rangle =\frac1g\sum\limits_{t\in
      G}\phi(t)\check{\psi}\left(t^{-1}\right)
    =\left(\phi,\check{\psi}\right).\]
    Nach Proposition \ref{char elem eig prop} gilt f\"ur einen
    Charakter $\chi$ die Beziehung $\chi=\check\chi$. F\"ur beliebige
    Funktionen $\phi$ auf $G$ folgt daher
    $\langle\phi,\chi\rangle=(\phi,\chi)$, falls $\chi$ ein Charakter
    ist. 
  \end{enumerate}
\end{remark}

\begin{theorem}[Orthogonalit\"atsrelationen f\"ur Charaktere]
  \label{irred char ortho}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Ist $\chi$ der Charakter einer irreduziblen Darstellung, so
    gilt $\langle\chi,\chi\rangle=1$. 
  \item Sind $\chi$ und $\psi$ die Charaktere von zwei nicht
    isomorphen irreduziblen Darstellungen, so gilt
    $\langle\chi,\psi\rangle=0$. 
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  \neueZeile
  \begin{enumerate}[(i)]
  \item Sei $\rho$ eine irreduzible Darstellung mit Charakter $\chi$,
    in Matrixform $\rho_t=\left(r^i_j(t)\right)$. Aus
    $\chi(t)=\sum\limits_ir^i_i(t)$ folgt \[\langle\chi,\chi\rangle
    =(\chi,\chi) =\sum\limits_{i,j}\left( r^i_i,r^j_j\right).\] Nach
    Korollar \ref{gl darst cor} gilt $\left(r^i_i,r^j_j\right)
    =\frac1n\delta^i_j\delta^j_i$, wobei $n$ der Grad der Darstellung
    ist. Wir erhalten also \[\langle\chi,\chi\rangle
    =\tfrac1n\sum\limits_{i,j=1}^n \delta^i_j\delta^j_i =\tfrac
    nn=1.\]  
  \item Seien $\rho$ und $\sigma$ zwei nicht isomorphe irreduzible
    Darstellungen von $G$ mit Charakteren $\chi$ und $\psi$ und
    Matrixdarstellungen $\left(r^i_j(t)\right)$ bzw.{}
    $\left(s^i_j(t)\right)$. Dann folgt \[\langle\chi,\psi\rangle
    =(\chi,\psi) =\sum\limits_{i,j}\left(r^i_i,s^j_j\right)
    =\sum\limits_{i,j} \underbrace{\tfrac1g\sum\limits_{t\in
        G}r\left(t^{-1}\right)^i_i s(t)^j_j}_{=0} =0\] nach Korollar
    \ref{versch darst cor}.\qedhere
  \end{enumerate}
\end{proof}

\begin{remark}
  Wir nennen den Charakter einer irreduziblen Darstellung einen
  irreduziblen Charakter. Theorem \ref{irred char ortho} liefert, dass
  irreduzible Charaktere (zu nicht isomorphen Darstellungen) ein
  normiertes Orthogonalsystem bilden.
\end{remark}

\begin{theorem}\label{anzahl detekt thm}
  Sei $V$ eine lineare Darstellung von $G$ mit Charakter $\chi$. Nehme
  an, dass $V$ sich als \[V=V_1\oplus\ldots\oplus V_k\] in irreduzible
  Darstellungen zerlegen l\"asst. Sei $W$ eine irreduzible Darstellung
  von $G$ mit Charakter $\phi$. Dann ist die Anzahl der Summanden
  $V_i$, die zu $W$ isomorph sind, durch $\langle\chi,\phi\rangle
  =(\chi,\phi)$ gegeben.
\end{theorem}
\begin{proof}[Beweis]
  Nach Proposition \ref{char sum prod prop} erhalten wir $\chi
  =\chi_1+\ldots+\chi_k$, wobei die Funktionen $\chi_i$ die Charaktere
  zu den Darstellungen $V_i$ bezeichnen. Wir erhalten
  $\langle\chi,\phi\rangle =\langle\chi_1,\phi\rangle +\ldots
  +\langle\chi_k,\phi\rangle$. Nach Theorem \ref{irred char
    ortho} sind die Summanden $\langle\chi_i,\phi\rangle$ genau dann
  gleich $1$, wenn $V_i$ eine Darstellung isomorph zu $W$ ist und
  sonst gleich $0$. Die Behauptung folgt.   
\end{proof}

\begin{corollary}\label{anz isom summ cor}
  Die Anzahl der Darstellungen $V_i$, die isomorph zu $W$ sind,
  h\"angt nicht von der gew\"ahlten Zerlegung von $V$ in irreduzible
  Darstellungen $V_i$ ab. \par Wir nennen diese Zahl die Anzahl, wie
  oft $W$ in $V$ enthalten ist oder vorkommt. 
\end{corollary}
In diesem Sinne ist die Zerlegung einer Darstellung in irreduzible
Darstellungen eindeutig. 

\begin{corollary}
  Zwei Darstellungen mit dem gleichen Charakter sind isomorph (und
  trivialerweise auch umgekehrt). 
\end{corollary}
\begin{proof}[Beweis]
  Da die Anzahl der zu einer gegebenen irreduziblen Darstellung
  isomorphen Summanden nach Korollar \ref{anz isom summ cor}
  \"ubereinstimmt, folgt die Behauptung. 
\end{proof}

\begin{remark}
  Aufgrund der obigen Resultate gen\"ugt es daher f\"ur die
  Untersuchung von Darstellungen, ihre Charaktere zu untersuchen. \par
  Seien n\"amlich $\chi_1,\ldots,\chi_h$ die verschiedenen
  irreduziblen Charaktere von $G$ (deren Endlichkeit wir erst im
  n\"achsten Kapitel nachweisen werden) mit zugeh\"origen
  Darstellungen $W_1,\ldots,W_h$, so ist jede Darstellung von $V$
  isomorph zu einer direkten Summe \[V=m_1W_1\oplus \ldots\oplus
  m_hW_h,\] wobei $m_i\in\N$ gilt und $mW$ f\"ur die $m$-fache direkte
  Summe $W\oplus\ldots\oplus W$ steht. Der Charakter $\phi$ von $V$
  erf\"ullt $\phi=m_1\chi_1+\ldots+m_h\chi_h$. Es gilt
  $m_i=\langle\phi,\chi_i\rangle$. \par
  (Dies gilt insbesondere auch f\"ur das Tensorprodukt zweier
  irreduzibler Darstellungen $W_i\otimes W_j$ und wir erhalten
  $\chi_i\chi_j =\sum\limits_km_{ij}^k\chi_k$,
  $m^k_{ij}\in\N$. Produkte von Charakteren sind also wieder
  Linearkombinationen von Charakteren mit $\N$-Koeffizienten.) \par
  Aufgrund der Orthonormalit\"at der irreduziblen Charaktere $\chi_i$
  folgt im ersten Beispiel $\phi=\sum\limits_{i=1}^hm_i\chi_i$ vom
  Anfang der Bemerkung 
  \begin{equation}
    \label{phi m quad eq}
    \langle\phi,\phi\rangle =\sum\limits_{i=1}^hm_i^2.    
  \end{equation}
  Daraus erhalten wir direkt ein Theorem, das wir auch als
  Irreduzibilit\"atskriterium verwenden k\"onnen. 
\end{remark}

\begin{theorem}
  Sei $\phi$ der Charakter einer Darstellung $V\neq\{0\}$. Dann ist
  $\langle\phi,\phi\rangle\in\N\setminus\{0\}$ und es gilt genau dann 
  $\langle\phi,\phi\rangle=1$, wenn $V$ irreduzibel ist. 
\end{theorem}
\begin{proof}[Beweis]
  $\langle\phi,\phi\rangle\in\N\setminus\{0\}$ folgt direkt aus
  \eqref{phi m quad eq}. Hieraus folgt auch, dass
  $\langle\phi,\phi\rangle$ genau dann gleich $1$ ist, wenn nur genau
  ein $m_i$ gleich $1$ ist und die anderen verschwinden. In diesem
  Falle ist $V$ aber isomorph zu einer irreduziblen Darstellung.
\end{proof}

\Subsection{Zerlegung der regul\"aren Darstellung}
Wir wollen ab jetzt annehmen, dass $\chi_1,\ldots,\chi_h$ die
irreduziblen Charaktere von $G$ sind. ($h<\infty$ wird bald gezeigt.)
Seien $n_1,\ldots,n_h$ die Grade zugeh\"origer irreduzibler
Darstellungen. Dann gilt nach Proposition \ref{char elem eig prop}
$n_i=\chi_i(1)$. 

\begin{proposition}
  Der Charakter $r_G$ der regul\"aren Darstellung ist durch
  \[
  r_G(s)=
  \begin{cases}
    g=|G|,& s=1,\\
    0,& s\neq1
  \end{cases}
  \]
  gegeben. 
\end{proposition}
\begin{proof}[Beweis]
  Wir erinnern daran, dass die regul\"are Darstellung $R$ auf dem von
  $\{e_t\}_{t\in G}$ erzeugten Vektorraum $\rho_se_t=e_{st}$
  erf\"ullt. \par Ist $s\neq1$, so gilt $st\neq t$ f\"ur alle
  $t$. Somit verschwinden alle Diagonaleintr\"age der $\rho_s$
  darstellenden Matrix. Also folgt $\tr\rho_s=0$. Schlie\ss{}lich gilt
  im Fall $s=1$ \[r_G(1) =\tr\rho_1 =\tr\id =\dim R =g. \qedhere\]
\end{proof}

\begin{corollary}\label{endl irred darst cor}
  Jede irreduzible Darstellung $W_i$ ist in der regul\"aren
  Darstellung mit Vielfachheit $n_i$, ihrem Grad, enthalten.\par
  Insbesondere gibt es also f\"ur eine gegebene endliche Gruppe $G$
  nur endlich viele irreduzible Charaktere.
\end{corollary}
\begin{proof}[Beweis]
  Sei $\chi_i$ der zugeh\"orige irreduzible Charakter. Nach Theorem
  \ref{anzahl detekt thm} ist die Anzahl, wie oft $W_i$ in $R$
  vorkommt, durch $\langle r_G,\chi_i\rangle$ gegeben. Wir
  erhalten \[\langle r_G,\chi_i\rangle =\tfrac1g\sum\limits_{t\in G}
  r_G\left(t^{-1}\right) \chi_i(t) =\frac1gg\chi_i(1) =\chi_i(1)
  =n_i. \qedhere\] 
\end{proof}

\begin{corollary}
  \neueZeile
  \begin{enumerate}[(i)]
  \item Die Grade $n_i$ der irreduziblen (paarweise nicht isomorphen)
    Darstellungen einer Gruppe $G$ erf\"ullen $\sum\limits_{i=1}^h
    n_i^2=g$. 
  \item Ist $s\neq1$, so folgt $\sum\limits_{i=1}^h n_i\chi_i(s)=0$.
  \end{enumerate}
\end{corollary}
\begin{proof}[Beweis]
  Nach Korollar \ref{endl irred darst cor} folgt $r_G(s)=\sum\limits_i
  n_i\chi_i(s)$ f\"ur alle $s\in G$.
  \begin{enumerate}[(i)]
  \item W\"ahle $s=1$.
  \item W\"ahle $s\neq1$. \qedhere
  \end{enumerate}
\end{proof}

\begin{remark}
  Kennt man paarweise nichtisomorphe Darstellungen einer Gruppe mit
  Graden $n_i$, so sind dies genau dann alle solchen Darstellungen,
  wenn $\sum\limits_in_i^2=g$ gilt. \par
  Man kann auch zeigen, dass die Grade $n_i$ die Gruppenordnung $g$
  teilen.
\end{remark}

\Subsection{Anzahl irreduzibler Darstellungen}
\begin{definition}
  Eine Funktion $f$ auf einer Gruppe $G$ hei\ss{}t Klassenfunktion,
  falls $f\left(tst^{-1}\right)=f(s)$ f\"ur alle $s,t\in G$ gilt. \par
  Sei $t\in G$. Dann hei\ss{}t \[\{sts^{-1}\colon s\in G\}\] die
  Konjugationsklasse von $t$ in $G$. Die Konjugationsklassen bilden
  eine Partition von $G$. Eine Klassenfunktion ist auf jeder
  Konjugationsklasse von $G$ konstant. 
\end{definition}

\begin{proposition}\label{klassenfkt ind endo prop}
  Sei $f$ eine Klassenfunktion auf $G$. Sei $\rho\colon G\to GL(V)$
  eine lineare Darstellung von $G$. Definiere $\rho_f\colon V\to V$
  durch \[\rho_f:=\sum\limits_{t\in G} f(t)\rho_t.\] Ist $V$ eine
  irreduzible Darstellung vom Grad $n$ und Charakter $\chi$, dann gilt
  $\rho_f=\lambda\id$ mit \[\lambda=\tfrac1n\sum\limits_{t\in G}
  f(t)\chi(t) =\tfrac gn\langle f,\ol\chi\rangle.\] 
\end{proposition}
\begin{proof}[Beweis]
  Es gilt \[\rho_s^{-1}\rho_f\rho_s =\sum\limits_{t\in G}
  f(t)\rho_s^{-1}\rho_t\rho_s =\sum\limits_{t\in G}
  f(t)\rho_{s^{-1}ts}.\] Mit $u=s^{-1}ts$ erhalten
  wir \[\rho_s^{-1}\rho_f\rho_s =\sum\limits_{u\in G}
  f\left(sus^{-1}\right)\rho_u =\sum\limits_{u\in G} f(u)\rho_u
  =\rho_f.\] Somit gilt $\rho_f\rho_s=\rho_s\rho_f$. Nach dem
  Schurschen Lemma ist $\rho_f$ daher eine Homothetie, also von der
  Form $\rho_f=\lambda\id$. Wir erhalten daher \[n\lambda
  =\tr(\lambda\id) =\tr\rho_f =\sum\limits_{t\in G} f(t)\tr\rho_t
  =\sum\limits_{t\in G} f(t)\chi(t) =g\langle
  f,\ol\chi\rangle. \qedhere\]
\end{proof}

\begin{theorem}\label{char basis kl fkt thm}
  Sei $H$ der Raum der Klassenfunktionen auf $G$. Dann sind die
  irreduziblen Charaktere $\chi_1,\ldots,\chi_n\in H$ eine
  Orthonormalbasis von $H$.
\end{theorem}
\begin{proof}[Beweis]
  Es ist klar, dass Charaktere Klassenfunktionen sind. Nach Theorem
  \ref{irred char ortho} bilden die irreduziblen Charaktere eine
  orthonormierte Menge. Um zu zeigen, dass sie auch $H$ erzeugen,
  weisen wir nach, dass eine Klassenfunktion $\ol f$, die auf allen
  $\chi_i$'s senkrecht steht, die Nullfunktion ist. $\left\langle\ol
    f,\chi_i\right\rangle=0$ ist \"aquivalent zu $\langle
  f,\ol{\chi_i}\rangle=0$. $f$ ist ebenfalls eine Klassenfunktion. Es
  gen\"ugt der Nachweis, dass $f=0$ ist. Die in Proposition
  \ref{klassenfkt ind endo prop} definierte Abbildung $\rho_f$ ist in
  der vorliegenden Situation Null, falls $\rho$ irreduzibel ist. Ein
  beliebiges $\rho$ ist aber die direkte Summe von irreduziblen
  Darstellungen. Somit ist $\rho_f=0$ f\"ur eine beliebige Darstellung
  $\rho$. Wir wenden dies nun insbesondere auf die regul\"are
  Darstellung $R$ an und erhalten \[0= \rho_fe_1 =\sum\limits_{t\in G}
  f(t)\rho_te_1 =\sum\limits_{t\in G} f(t)e_t.\] Dies ist aber nur
  m\"oglich, wenn $f(t)=0$ f\"ur alle $t\in G$ gilt. Die Behauptung
  folgt.
\end{proof}

\begin{theorem}
  Die Anzahl der irreduziblen Darstellungen von $G$ (bis auf
  Isomorphismen) stimmt mit der Anzahl der Konjugationsklassen in $G$
  \"uberein. 
\end{theorem}
\begin{proof}[Beweis]
  Sie $C_1,\ldots,C_k$ die Menge der Konjugationsklassen in $G$. Eine
  Funktion ist genau dann eine Klassenfunktion, wenn sie auf
  Konjugationsklassen konstant ist. Somit hat der Raum $H$ der
  Klassenfunktionen auf $G$ die Dimension $k$. \par Nach Theorem
  \ref{char basis kl fkt thm} stimmt aber die Anzahl der irreduziblen
  Charaktere mit der Dimension von $H$ \"uberein. Somit folgt die
  Behauptung. 
\end{proof}

\begin{proposition}
  Sei $s\in G$. Sei $c(s)$ die Anzahl der Elemente in der
  Konjugationsklasse von $s$ in $G$ und $h$ die Anzahl der
  Konjugationsklassen. Dann gilt
  \begin{enumerate}[(i)]
  \item $\sum\limits_{i=1}^h\ol{\chi_i(s)}\chi_i(s) =\frac g{c(s)}$. 
  \item Ist $t$ nicht zu $s$ konjugiert, liegen $t$ und $s$ also in
    verschiedenen Konjugationsklassen, so gilt $\sum\limits_{i=1}^h
    \ol{\chi_i(s)} \chi_i(t) =0$. 
  \end{enumerate}
\end{proposition}
\begin{proof}[Beweis]
  Sei $f_s$ die Klassenfunktion, die auf der Konjugationsklasse von
  $s$ den Wert $1$ annimmt und sonst verschwindet. Nach Theorem
  \ref{char basis kl fkt thm} k\"onnen wir $f_s$ in der Form \[f_s
  =\sum\limits_{i=1}^h\lambda_i\chi_i\quad\text{mit}\quad
  \lambda_i=\langle f_s,\chi_i\rangle =\frac{c(s)}g\ol{\chi_i(s)}\]
  darstellen. F\"ur beliebiges $t\in G$ folgt \[f_s(t) =\frac{c(s)}g
  \sum\limits_{i=1}^h \ol{\chi_i(s)}\chi_i(t).\] F\"ur $t=s$ ist
  $f_s(s)=1$ und die erste Behauptung folgt. Ist $t$ nicht zu $s$
  konjugiert, so erhalten wir aus $f_s(t)=0$ die zweite Behauptung.
\end{proof}

\Subsection{Kanonische Zerlegung einer Darstellung}
Sei $\rho\colon G\to GL(V)$ eine lineare Darstellung von $G$. Wir
wollen eine kanonische Zerlegung in direkte Summanden herleiten, die
gr\"ober als eine Zerlegung in irreduzible Teildarstellungen ist, aber
daf\"ur eindeutig bestimmt ist. \par Seien $\chi_1,\ldots,\chi_h$
paarweise verschiedene irreduzible Charaktere zu irreduziblen
Teildarstellungen $W_1,\ldots,W_h$ von $G$ mit Graden
$n_1,\ldots,n_h$. Sei $V=U_1\oplus\ldots\oplus U_m$ eine Zerlegung von
$V$ als direkte Summe irreduzibler Darstellungen. Bezeichne mit $V_i$
die direkte Summe aller $U_k$'s, die zu $W_i$ isomorph sind. Dann
gilt \[V=V_1\oplus\ldots\oplus V_h.\] (Wir haben also in der Zerlegung
von $V$ in direkte irreduzible Summanden die isomorphen
zusammengefasst.) Diese Zerlegung hei\ss{}t kanonische
Zerlegung. \"Uber ihre Eigenschaften beweisen wir
\begin{theorem}
  Unter den obigen Voraussetzungen und Bezeichnungen gilt: 
  \begin{enumerate}[(i)]
  \item Die Zerlegung $V=V_1\oplus\ldots\oplus V_h$ h\"angt nicht von
    der urspr\"unglich gew\"ahlten Zerlegung in irreduzible
    Darstellungen ab. 
  \item Die Projektionen $p_i\colon V\to V$ mit $\im p_i=V_i$ zu
    dieser Zerlegung sind durch \[p_i=\tfrac{n_i}g \sum\limits_{t\in
      G} \ol{\chi_i(t)} \rho_t\] gegeben.
  \end{enumerate}
\end{theorem}
\begin{proof}[Beweis]
  Da die Projektionen die Zerlegung definieren, zeigen wir nur den
  zweiten Teil. Wir schr\"anken $p_i$ auf eine irreduzible Darstellung
  $W$ vom Grad $n$ mit Charakter $\chi$ ein. Dann ist nach Proposition
  \ref{klassenfkt ind endo prop} $p_i|_W=\lambda\id$ mit \[\lambda
  =\tfrac{n_i}g\tfrac gn\langle\ol{\chi_i},\ol{\chi}\rangle
  =\tfrac{n_i}n\ol{\langle\chi,\chi_i\rangle}.\] Es gilt $\lambda=1$
  f\"ur $\chi_i=\chi$ und sonst $\lambda=0$. D.\,h.{} die
  Einschr\"ankungen von $p_i$ sind die Identit\"at auf irreduziblen
  Summanden, die zu $W_i$ isomorph sind und sonst die
  Nullabbildung. Schreiben wir also $x\in V$ gem\"a\ss{} der Zerlegung
  $V=V_1\oplus\ldots\oplus V_h$ als $x=x_1+\ldots+x_h$, so folgt
  $p_i(x)=p_i(x_1)+\ldots+p_i(x_h)=x_i$. Somit ist $p_i$ die gesuchte
  Projektion.
\end{proof}
\fi

\renewcommand{\refname}{Literatur}
\def\emph#1{\textit{#1}}
\bibliographystyle{amsplain}
\bibliography{/Users/os/uni/math/bib/biblio}

\end{document}
