Die Multiplikation von zwei Matrizen ist eine Rechenoperation, deren Ergebnis wiederum eine Matrix ist. Wenn man die Matrizen als Abbildungsmatrizen (Analytische Geometrie) bzw. Übergangsmatrizen (Stochastik) auffasst, entspricht das Matrixprodukt der Hintereinanderausführung zweier Abbildungen bzw. zweier „Zeitschritte“ eines Zufallsvektors.
Da man Vektoren als Matrizen mit nur einer Spalte bzw. Zeile ansehen kann, ist die Matrixmultiplikation auch für Vektoren definiert (siehe unten).
Die Matrizenmultiplikation einer m×n-Matrix A mit einer n×p-Matrix B wird komponentenweise definiert. Und zwar ist das Matrixelement in der i-ten Zeile und j-ten Spalte der Produktmatrix A · B das Skalarprodukt des i-ten Zeilenvektors von A mit dem j-ten Spaltenvektor von B:
\((AB)_{ij} = \sum_{k = 1}^n a_{ik}a_{kj}\)
Beispiel:
\(\begin{pmatrix} 2 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 2 & -1 \\ 0 & 1 \end{pmatrix} =\begin{pmatrix} 2 \cdot 2 + (-1) \cdot 0 & 2 \cdot (-1) + (-1) \cdot 1 \\ 0 \cdot 2 + 1 \cdot 0 & 0 \cdot (-1) + 1 \cdot 1 \end{pmatrix}= \begin{pmatrix} 4 & -3 \\ 0 & 1 \end{pmatrix}\)
Das Matrizenprodukt ist nicht kommutativ, im Allgemeinen ist also \(A \cdot B \ne B \cdot A\) – es kommt etwas anderes heraus, wenn man eine Figur erst spiegelt und dann dreht, als wenn man sie erst dreht und dann spiegelt!
Es gelten aber das Assoziativ- und das Distributivgesetz: (A · B) · C = A · (B · C) bzw. \(A \pm (B \cdot C) = A \cdot B \pm B\cdot C\).
Quadratische n×n-Matrizen kann man mit sich selbst multiplizieren, also z. B. die Matrixpotenzen A · A = A2, A · A · A = A3 berechnen.
Die inverse Matrix A–1 (sozusagen der Kehrwert) ist diejenige Matrix, die mit A multipliziert die Einheitsmatrix ergibt: A · A–1 = 1.
Da Vektoren auch Matrizen sind, kann man die Matrizenmultiplikation auch mit einer Matrix und einem Vektor oder mit zwei Vektoren durchführen:
- Wenn man eine Matrix von links mit einem Spaltenvektor multipliziert, erhält man einen Spaltenvektor, dies tritt z. B. bei linearen Gleichungssystemen (LGS) und linearen Abbildungen auf:
\((A\cdot \vec x )_i = \sum_{k = 1}^n a_{ik}x_{k}\)
Beispiel:
\(\begin{pmatrix} 2 & -1 \\ -0,5 & 1 \end{pmatrix} \begin{pmatrix} 5 \\ -4 \end{pmatrix} = \begin{pmatrix} 2 \cdot 5 + (- 1) \cdot (- 4) \\ - 0,5 \cdot 5 + 1 \cdot (- 4) \end{pmatrix} = \begin{pmatrix} 14 \\ -6,5 \end{pmatrix}\)
Von rechts muss man dagegen eine Matrix mit einem Zeilenvektor multiplizieren. - Wenn man einen Zeilenvektor von links mit einem Spaltenvektor multipliziert, erhält man als Ergebnis eine Zahl, nämlich gerade das Skalarprodukt der beiden Vektoren. In zwei Dimensionen (n = 2) heißt das:
\((x_1 \ \ x_2) \begin{pmatrix} y_1 \\ y_2 \end{pmatrix} = x_1y_1 + x_2y_2 \equiv \vec x \circ \vec y\) - Multipliziert man dagegen einen Spaltenvektor von links mit einem Zeilenvektor, dann ist das Ergebnis eine Matrix, deren Komponenten jeweils die Produkt passender Vektorkomponenten sind. Man dies auch das dyadische Produkt \(\vec x \otimes \vec y\) der beiden Vektoren:
\(\begin{pmatrix} y_1 \\ y_2 \end{pmatrix} (x_1 \ \ x_2) = \begin{pmatrix} x_1x_1 & x_1x_2 \\ x_2x_1 & x_2x_2 \end{pmatrix} = \vec x \otimes \vec y\)
Das dyadische Produkt taucht in der Schule nur selten auf, man muss nur aufpassen, dass man nicht aus Versehen statt eines Skalarprodukts ein dyadisches Produkt hinschreibt!
Wenn man ein Matrixprodukt transponiert, muss man die Faktoren tauschen:
(A · B)T = BT · AT
Die Determinante eines Matrixprodukts ist das Produkt der Einzeldeterminanten, in diesem Fall spielt die Reihenfolge der Matrixmultiplikation also keine Rolle:
det(A · B) = det A · det B = det B · det A = det(B · A)