Web Analytics

See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Matrix (Mathematik) - Wikipedia

Matrix (Mathematik)

aus Wikipedia, der freien Enzyklopädie

In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlen (oder anderen Objekten) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix; sie bilden Zeilen- bzw. Spaltenvektoren. Die Elemente, die in der Matrix angeordnet sind, nennt man Einträge oder Komponenten der Matrix.

Die Bezeichnung „Matrix“ wurde 1850 von James Joseph Sylvester eingeführt. Matrizen stellen Zusammenhänge, in denen insbesondere Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge.

Inhaltsverzeichnis

[Bearbeiten] Notation und erste Eigenschaften

Als Notation hat sich die Aneinanderreihung der Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer durchgesetzt. Die Form der Klammern ist nicht festgelegt; es werden sowohl runde als auch eckige Klammern verwendet. Beispielhaft steht die Notation

\begin{pmatrix}      a_{11} & a_{12} & a_{13} \\      a_{21} & a_{22} & a_{23}    \end{pmatrix} bzw. \begin{bmatrix}      a_{11} & a_{12} & a_{13} \\      a_{21} & a_{22} & a_{23}    \end{bmatrix}

für eine Matrix mit 2 Zeilen und 3 Spalten. Allgemein spricht man von einer m \times  n-Matrix mit m Zeilen und n Spalten. Deshalb nennt man auch m die Zeilendimension und n die Spaltendimension der Matrix.

Die Einträge der Matrix entstammen einer Menge \Bbb K. In der linearen Algebra ist diese in der Regel ein Körper; meistens verwendet man die reellen oder komplexen Zahlen. In der Algebra werden oft Matrizen mit Einträgen aus einem Ring betrachtet.

Formal ist eine Matrix eine Funktion

A:\left\{\begin{matrix}\{1,\ldots,m\}\times\{1,\dots,n\}&\to&\Bbb K\\ (i,j)&\mapsto&A(i,j)\end{matrix}\right.

die jedem Indexpaar (i,j) einen Funktionswert A(i,j) zuordnet. In den obigen Beispielmatrizen wird beispielsweise dem Indexpaar (1,2) der Funktionswert A(1,2) = a12 zugeordnet. Allgemein ist der Funktionswert A(i,j) der Eintrag in der i-ten Zeile und der j-ten Spalte. Die Indizes m und n entsprechen wieder der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix durch Funktionen ist, dass einige Matrizen selbst lineare Abbildungen definieren.

Die Menge \operatorname{Abb}(\{1,\ldots,m\}\times\{1,\ldots,n\},K) aller m \times  n-Matrizen über der Menge K wird in üblicher mathematischer Notation auch K^{\{1,\ldots,m\}\times\{1,\ldots n\}} geschrieben; hierfür hat sich die Kurznotation K^{m\times n} eingebürgert (manchmal wird auch die Schreibweise Km,n, seltener \,^m K^n benutzt).

Stimmen Zeilen- und Spaltendimension überein, so spricht man von einer quadratischen Matrix.

Hat eine Matrix nur eine Spalte, so nennt man sie einen Spaltenvektor; hat sie nur eine Zeile, so nennt man sie einen Zeilenvektor. (Das ist eine abgekürzte, ungenaue Sprechweise, denn eine einspaltige oder einzeilige Matrix kann nur eine Darstellung eines Vektors sein, abhängig vom Koordinatensystem – im Gegensatz zum Vektor selbst.) Einen Vektor aus Kn kann man je nach Kontext als einzeilige oder einspaltige Matrix darstellen (also als Element aus K^{1 \times n } oder K^{n \times 1}).

[Bearbeiten] Addition und Multiplikation

[Bearbeiten] Matrizenaddition

Die Summe zweier m \times n-Matrizen berechnet sich, indem man jeweils die Einträge der beiden Matrizen addiert:

A+B = (a_{ij}+b_{ij})_{i=1 , \ldots , m; \ j=1 , \ldots , n}

Rechenbeispiel:

\begin{pmatrix}     1 & 3 & 2 \\     1 & 2 & 2   \end{pmatrix}   +   \begin{pmatrix}     0 & 0 & 5 \\     2 & 1 & 1   \end{pmatrix}   =   \begin{pmatrix}     1+0 & 3+0 & 2+5 \\     1+2 & 2+1 & 2+1   \end{pmatrix}   =   \begin{pmatrix}     1 & 3 & 7 \\     3 & 3 & 3   \end{pmatrix}

Es können nur Matrizen mit der gleichen Anzahl an Zeilen und Spalten addiert werden.

In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines Körpers, wie z.B. der reellen oder komplexen Zahlen. In diesem Fall ist die Matrizenaddition assoziativ, kommutativ und besitzt mit der Nullmatrix ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Einträge Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat.

[Bearbeiten] Skalarmultiplikation

Eine Matrix wird mit einem Skalar multipliziert, indem alle Einträge der Matrix mit dem Skalar multipliziert werden:

\lambda\cdot A = (\lambda\cdot a_{ij})_{i=1, \ldots , m; \ j=1, \ldots , n}

Rechenbeispiel:

2 \cdot   \begin{pmatrix}     1 & 3 & 2 \\     1 & 2 & 2   \end{pmatrix}   =   \begin{pmatrix}     2 \cdot1 & 2 \cdot3 & 2 \cdot2 \\     2 \cdot1 & 2 \cdot2 & 2 \cdot2   \end{pmatrix}   =   \begin{pmatrix}     2 & 6 & 4 \\     2 & 4 & 4   \end{pmatrix}

Die Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden. Um die Skalarmultiplikation durchzuführen müssen der Skalar λ und die Einträge der Matrix demselben Ring (K,+,\cdot,0)entstammen. Die Menge der m \times  n-Matrizen ist in diesem Fall ein R-(Links-)Modul über R.

[Bearbeiten] Matrizenmultiplikation

Zwei Matrizen A = (a_{ij})_{i=1\ldots l,\;j=1\ldots m} und B = (b_{ij})_{i=1\ldots m,\;j=1\ldots n} werden multipliziert, indem die Produktsummenformel ähnlich dem Skalarprodukt auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird:

A \cdot B = (c_{ij})_{i=1\ldots l,\;j=1\ldots n}   und  c_{ij}=\sum_{k=1}^m a_{ik}\cdot b_{kj}

Rechenbeispiel:

\begin{pmatrix}     1 & 2 & 3 \\     4 & 5 & 6 \\   \end{pmatrix}   \cdot   \begin{pmatrix}     6 & -1 \\     3 & 2 \\     0 & -3   \end{pmatrix}   =   \begin{pmatrix}      1 \cdot 6  +  2 \cdot 3  +  3 \cdot 0 &      1 \cdot (-1) +  2 \cdot 2 +  3 \cdot (-3) \\      4 \cdot 6  +  5 \cdot 3  +  6 \cdot 0 &      4 \cdot (-1) +  5 \cdot 2 +  6 \cdot (-3) \\   \end{pmatrix}   =   \begin{pmatrix}     12 & -6 \\     39 & -12   \end{pmatrix}

Bei der Berechnung von Hand bietet das Falksche Schema eine Hilfestellung. Zu beachten ist, dass Matrizenmultiplikation im Allgemeinen nicht kommutativ ist, d.h. im Allgemeinen gilt B \cdot A \neq A \cdot B. Die Matrizenmultiplikation ist aber immer assoziativ:

(A \cdot B) \cdot C = A \cdot (B \cdot C)

Um zwei Matrizen zu multiplizieren, müssen die Einträge einem Ring entstammen und die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmen. Ist nun A eine l \times m-Matrix und B eine m \times n-Matrix dann ist A \cdot B eine l \times  n-Matrix.

Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring R. Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring. Ist der Ring R unitär mit dem Einselement 1, dann ist die Einheitsmatrix

E =   \begin{pmatrix}     1 & 0 & \cdots & 0 \\     0 & 1 & \cdots & 0 \\     \vdots & \vdots & \ddots & \vdots \\     0 & 0 & \dots & 1   \end{pmatrix}

das Einselement des Matrizenrings, d.h. dieser ist auch unitär. Allerdings ist der Matrizenring K^{n \times n} für n > 1 niemals kommutativ.

[Bearbeiten] Potenzieren von Matrizen

Quadratische Matrizen A\in K^{n\times n} können mit sich selbst multipliziert werden; analog zum Fall der reellen Zahlen führt man die abkürzende Potenzschreibweise A^2=A\cdot A oder A^3=A\cdot A\cdot A etc. ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynomen einzusetzen. Zu weitergehenden Ausführungen hierzu siehe Charakteristisches Polynom.

[Bearbeiten] Vektorräume von Matrizen

Die n \times m-Matrizen über einem Körper K bilden mit der Matrizenaddition und der Skalarmultiplikation jeweils einen K-Vektorraum. Die Spur des Matrizenprodukts A^T \cdot B

\left\langle A,B\right\rangle = \operatorname{spur}(A^TB) =\sum_{i=1}^n\sum_{j=1}^m a_{ij}b_{ij}

ist dann ein Skalarprodukt auf dem Matrizenraum.

Im Spezialfall K=\R handelt es sich bei diesem Matrizenraum um einen Euklidischen Vektorraum. In diesem Raum stehen die symmetrischen Matrizen und die schiefsymmetrischen Matrizen senkrecht aufeinander. Ist A eine symmetrische und B eine schiefsymmetrische Matrix, so gilt \begin{matrix}\left\langle A,B\right\rangle=0\end{matrix}.

Im Spezialfall K=\mathbb C ist die Spur des Matrizenproduktes \overline{A}^T \cdot B

\left\langle A,B\right\rangle = \operatorname{spur}(\overline{A^T}B) =\sum_{i=1}^n\sum_{j=1}^m \overline{a_{ij}}b_{ij}

ein Skalarprodukt, das Hilbert-Schmidt-Skalarprodukt, und der Matrizenraum wird zu einem unitären Vektorraum.

[Bearbeiten] Weitere Rechenoperationen

[Bearbeiten] Inverse Matrix

Hauptartikel: Inverse Matrix

Für manche quadratische Matrizen A gibt es eine inverse Matrix A − 1 für die gilt

A \cdot A^{-1} = A^{-1} \cdot A = E

wobei E die Einheitsmatrix ist. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als invertierbare oder reguläre Matrizen, umgekehrt werden nicht invertierbare Matrizen als singuläre Matrizen bezeichnet.

[Bearbeiten] Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)

Hat man zwei Spaltenvektoren v und w der Länge n, dann ist das Matrixprodukt v \cdot w nicht definiert, aber die beiden Produkte v^T \cdot w und v \cdot w^T existieren.

Das erste Produkt ist eine 1 \times 1-Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von v und w genannt und mit \langle v ,w \rangle bezeichnet.

\begin{pmatrix}      1 \\      2 \\      3   \end{pmatrix}^T   \cdot   \begin{pmatrix}      -2\\      -1\\       1   \end{pmatrix}   =   1 \cdot (-2) + 2 \cdot (-1) + 3 \cdot 1   =   -1

Das zweite Produkt ist eine n \times n-Matrix und heißt das dyadische Produkt oder Tensorprodukt von v und w.

\begin{pmatrix}      1 \\      2 \\      3   \end{pmatrix}   \cdot   \begin{pmatrix}      -2\\      -1\\       1   \end{pmatrix}^T   =   \begin{pmatrix}     1\cdot(-2) & 1\cdot(-1) & 1\cdot 1 \\     2\cdot(-2) & 2\cdot(-1) & 2\cdot 1 \\     3\cdot(-2) & 3\cdot(-1) & 3\cdot 1   \end{pmatrix}   =   \begin{pmatrix}     -2 & -1 & 1 \\     -4 & -2 & 2 \\     -6 & -3 & 3   \end{pmatrix}

[Bearbeiten] Die transponierte Matrix

Die Transponierte der Matrix A = (aij) vom Format m \times n ist die Matrix AT = (aji) vom Format n \times m, d.h. zu

A=   \begin{pmatrix}     a_{11} & \dots &a_{1n} \\     \vdots &\ddots &\vdots \\     a_{m1} & \dots &a_{mn}   \end{pmatrix}

ist die Transponierte

A^{T} =   \begin{pmatrix}     a_{11} & \dots &a_{m1} \\     \vdots &\ddots &\vdots \\     a_{1n} & \dots &a_{mn}   \end{pmatrix}

Man schreibt also die erste Zeile als erste Spalte und die zweite Zeile als zweite Spalte usw. Die Matrix wird so zu sagen an ihrer Hauptdiagonale gespiegelt.

Beispiel:

\begin{pmatrix}     1 & 8 & -3 \\     4 & -2 & 5   \end{pmatrix}^T   =   \begin{pmatrix}     1 &  4 \\     8 & -2 \\    -3 &  5   \end{pmatrix}

Es gelten die folgenden Rechenregeln:

(A + B)T = AT + BT
(cA)T = cAT
(AT)T = A
(A\cdot B)^T=B^T\cdot A^T
(A − 1)T = (AT) − 1

[Bearbeiten] Anwendungen

[Bearbeiten] Zusammenhang mit linearen Abbildungen

Das Besondere an Matrizen über einem Ring K ist der Zusammenhang zu linearen Abbildungen. Zu jeder Matrix A \in K^{m\times n} lässt sich eine lineare Abbildung mit Definitionsbereich Kn (Menge der Spaltenvektoren) und Wertebereich Km definieren, indem man jeden Spaltenvektor u\in K^n auf A\cdot u\in K^m abbildet; und jede lineare Abbildung mit diesem Definitions- und Wertebereich entspricht auf diese Weise genau einer m \times  n-Matrix. Diesen Zusammenhang bezeichnet man auch als (kanonischen) Isomorphismus; er stellt bei vorgegebenem K, m, n eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrizenprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies dann auch für die Matrixmultiplikation, sie ist also assoziativ.

Ist K sogar ein Körper, kann man statt der Spaltenvektorräume beliebige endlichdimensionale K-Vektorräume V und W (der Dimension n bzw. m) betrachten. Diese sind nach Wahl von Basen v=(v_1,\ldots,v_n) von V und w=(w_1,\ldots,w_m)von W zu Kn bzw. Km isomorph, weil zu einem beliebigen Vektor u\in V eine eindeutige Zerlegung in Basisvektoren u = \sum_{i=1}^n \alpha_i v_i existiert, und die darin vorkommenden Körperelemente αi den Koordinatenvektor {}_vu=\begin{pmatrix}\alpha_1 \\ \vdots \\ \alpha_n\end{pmatrix} \in K^n bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis v ab, die daher auch in der Bezeichnung vu vorkommt.

Analog verhält es sich im Vektorraum W. Ist eine lineare Abbildung f\colon V\to W gegeben, so lassen sich die Bilder der Basisvektoren von V eindeutig in die Basisvektoren von W zerlegen in der Form f(v_i) = \sum_{j=1}^m a_{ji}w_j mit Koordinatenvektor {}_wf(v_i)=\begin{pmatrix}a_{1i} \\ \vdots \\ a_{mi}\end{pmatrix} \in K^m. Die Abbildung ist dann vollständig festgelegt durch die Matrix

{}_wf_v =\begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & \ldots & a_{mn}\end{pmatrix} \in K^{m\times n},

denn für das Bild des o.g. Vektors u gilt

f(u) = \sum_{j=1}^m \sum_{i=1}^n a_{ji}\alpha_i w_j,

also {}_wf(u) = {}_wf_v\cdot {}_vu ("Koordinatenvektor = Matrix mal Koordinatenvektor"). (Die Matrix wfv hängt von den verwendeten Basen v und w ab; bei der Multiplikation wird die Basis v, die links und rechts vom Malpunkt steht, "weggekürzt", und die "außen" stehende Basis w bleibt übrig.)

Die Hintereinanderausführung zweier linearer Abbildungen f\colon V\to W und g\colon W\to X (mit Basen v, w bzw. x) entspricht dabei der Matrixmultiplikation, also {}_x(g\circ f)_v = {}_xg_w \cdot {}_wf_v (auch hier wird die Basis w "weggekürzt").

Somit ist die Menge der linearen Abbildungen von V nach W wieder isomorph zu K^{m\times n}. Der Isomorphismus f \mapsto {}_wf_v hängt aber von den gewählten Basen v und w ab und ist daher nicht kanonisch: Bei Wahl einer anderen Basis v' für V bzw. w' für W wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren m \times m- bzw. n \times n-Matrix (sog. Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich {}_{w'}f_{v'} = {}_{w'}e^W_w \cdot {}_wf_v \cdot {}_ve^V_{v'} ("Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix"). Dabei bilden die Identitätsabbildungen eV und eW jeden Vektor aus V bzw. W auf sich selbst ab.

Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft auch basisunabhängig der entsprechenden linearen Abbildung zuzusprechen.

Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix. Der Rang ist (falls K ein Körper ist) im angeführten Sinne basisunabhängig und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen definiert, die dem Fall V = W entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind: {}_{v'}f_{v'} = ({}_ve^V_{v'})^{-1} \cdot {}_vf_v \cdot {}_ve^V_{v'}. In diesem Sinne ist also auch die Determinante basisunabhängig.

[Bearbeiten] Umformen von Matrizengleichungen

Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern beachtet werden muss.

Beispiel: Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor x eines linearen Gleichungssystems

A \cdot x=b

mit A als n \times n-Koeffizientenmatrix. Man erweitert von links

A^{-1} \cdot A \cdot x=A^{-1} \cdot b \Leftrightarrow  E \cdot x=A^{-1} \cdot b

und erhält die Lösung

x=A^{-1} \cdot b.

Siehe auch weitere Anwendungen.

[Bearbeiten] Spezielle Matrizen

[Bearbeiten] Eigenschaften von Endomorphismen

Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen, die durch sie dargestellt werden.

Orthogonale Matrizen 
Eine reelle Matrix A ist orthogonal, wenn die zugehörige lineare Abbildung das Standard-Skalarprodukt erhält, d.h. wenn
\langle Av,Aw\rangle = \langle v,w\rangle
gilt. Diese Bedingung ist äquivalent dazu, dass A die Gleichung
A − 1 = AT
bzw.
A \, A^T = E
erfüllt.
Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.
Unitäre Matrizen 
Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix A ist unitär, wenn die zugehörige lineare Abbildung das hermitesche Standard-Skalarprodukt erhält, d.h. wenn
\langle Av,Aw\rangle = \langle v,w\rangle
gilt. Diese Bedingung ist äquivalent dazu, dass A die Gleichung
A − 1 = A *
erfüllt; dabei bezeichnet A * die konjugiert-transponierte Matrix zu A.
Fasst man den n-dimensionalen komplexen Vektorraum als 2n-dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit i vertauschen.
Projektionsmatrizen 
Eine Matrix ist eine Projektionsmatrix, falls
A = A2
d.h. die Matrix ist idempotent, was bedeutet, dass die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor das Resultat unverändert lässt. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix.
Beispiel: Es sei X eine (mxn)-Matrix. Dann ist die (mxm)-Matrix
A = X \, (X^TX)^{-1}X^T
idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten Quadrate verwendet.
Geometrisch entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der Matrix.
Nilpotente Matrizen 
Eine Matrix N heißt nilpotent, falls eine Potenz Nk (und damit auch alle höheren Potenzen) die Nullmatrix ergibt.

[Bearbeiten] Eigenschaften von Bilinearformen

Im folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform

(v,w)\mapsto v^T A w

entsprechen. Trotzdem können diese Eigenschaften auch für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen.

Symmetrische Matrizen 
Eine Matrix A heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist:
AT = A
Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur Hauptdiagonalen.
Beispiel:
\begin{pmatrix}     1 & 2 & 3 \\     2 & 4 & 5 \\     3 & 5 & 6   \end{pmatrix}^T   =   \begin{pmatrix}     1 & 2 & 3 \\     2 & 4 & 5 \\     3 & 5 & 6   \end{pmatrix}
Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:
vTAw = wTAv,
andererseits den selbstadjungierten linearen Abbildungen:
\langle Av,w\rangle = \langle v,Aw\rangle.
Hermitesche Matrizen 
Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten Endomorphismen.
Eine Matrix A\in\mathbb C^{n\times n} ist hermitesch oder selbstadjungiert, wenn gilt:
A = A * .
Schiefsymmetrische Matrizen 
Eine Matrix A heißt schiefsymmetrisch, wenn gilt:
AT = A.
Beispiel:
\begin{pmatrix}     0 & 1 & 2 \\     -1 & 0 & 3 \\     -2 & -3 & 0   \end{pmatrix}
Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:
v^T\cdot A\cdot w = -w^T\cdot A\cdot v
und antiselbstadjungierten Endomorophismen:
\langle Av,w\rangle = -\langle v,Aw\rangle.
Positiv definite Matrizen 
Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, d.h. wenn für alle Vektoren v\ne0 gilt:
v^T\cdot A\cdot v > 0.
Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte. Ist die Bilinearform größer gleich Null, heißt die Matrix positiv semidefinit, analog kann eine Matrix negativ definit beziehungsweise semidefinit heißen, wenn die obige Bilinearform immer kleiner beziehungsweise kleiner gleich Null ist. Matrizen die keine dieser Eigenschaften erfüllen, heißen indefinit.

[Bearbeiten] Weitere Konstruktionen

Konjugierte und Adjungierte Matrix 
Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix A wird mit A * bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix A^\dagger als adjungierte bezeichnet.
Adjunkte oder Komplementäre Matrix
Die komplementäre Matrix A^\dagger einer quadratischen Matrix A setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten det(Aij) werden die i-te Zeile und j-te Spalte von A gestrichen. Aus der resultierenden (n-1) \times (n-1)-Matrix wird dann die Determinante det(Aij) berechnet. Die komplementäre Matrix hat dann die Einträge ( − 1)i + jdet(Aij). Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix A, denn nach dem Laplaceschen Entwicklungssatz gilt
A^\dagger\cdot A=A\cdot A^\dagger=\det(A)\cdot E_n.
Damit ist die Inverse A^{-1}=\frac{A^\dagger}{\det(A)}, wenn \det(A) \neq 0.

[Bearbeiten] Verallgemeinerungen

Man könnte auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssen). Die genaueren Betrachtungen solcher Fragestellungen führten zur Entstehung der Funktionalanalysis, die diese Begriffe behandelt.

Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu