Onder bepaalde voorwaarden kunnen we met matrices rekenen. We zullen in deze paragraaf de optelling en de scalaire vermenigvuldiging bespreken. Ook kijken we naar spiegeling langs de hoofddiagonaal.
Als \(A\) en \(B\) matrices zijn met hetzelfde aantal rijen en kolommen, dan is de sommatrix \(A+B\) de matrix die je krijgt door overeenkomstige elementen bij elkaar op te tellen.
Uitgeschreven in coördinaten luidt deze definitie als volgt:
Laat \(A\) en \(B\) \(m\times n\) matrices zijn met elementen \(a_{ij}\) en \(b_{ij}\) respectievelijk. Definieer voor \(1\leq i\leq m\) en \(1\leq j\leq n\) \[
c_{ij}=a_{ij}+b_{ij}\tiny.
\] De \(m\times n\) matrix \(C\) met elementen \(c_{ij}\) is de som van de matrices \(A\) en \(B\).
Hieronder staan twee voorbeelden van optelling van matrices.
\[\begin{aligned}\matrix{1 & 4 & 4 \\ 0 & 1 & 1 \\ 5 & 3 & 1 \\ 4 & 2 & 4 \\ } + \matrix{5 & 3 & 4 \\ 3 & 5 & 2 \\ 5 & 0 & 2 \\ 5 & 3 & 3 \\ } &= \matrix{1+5 & 4+3 & 4+4 \\ 0+3 & 1+5 & 1+2 \\ 5+5 & 3+0 & 1+2 \\ 4+
5 & 2+3 & 4+3 \\ } \\ \\ &= \matrix{6 & 7 & 8 \\ 3 & 6 & 3 \\ 10 & 3 & 3 \\ 9 & 5 & 7 \\ }\end{aligned}\] \[\matrix{1 & 4 & 4 \\ 0 & 1 & 1 \\ 5 & 3 & 1 \\ 4 & 2 & 4 \\ } + \matrix{5 & 3 \\ 3 & 5 \\ 5 & 0 \\ 5 & 3 \\ } \text{bestaat niet omdat de matrixafmetingen verschillen.}\]
Laat \(A=(a_{ij})\), \(B=(b_{ij})\) en \(C=(c_{ij})\) drie \(m\times n\) matrices zijn.
De volgende twee eigenschappen gelden:
\[
\begin{array}{ll}
A+B=B+A & (\textit{commutativiteit}) \\
(A+B)+C=A+(B+C) & (\textit{associativiteit})
\end{array}
\]
Beide regels zijn een direct gevolg van dezelfde eigenschappen voor getallen:
- De eerste eigenschap, commutativiteit voor de optelling van matrices, volgt direct uit het feit dat de gewone optelling commutatief is: als #c_{ij}=a_{ij}+b_{ij}#, dan geldt ook #c_{ij}=b_{ij}+a_{ij}#, dus \[A+B = (a_{ij})+(b_{ij})=(c_{ij}) = (b_{ij}) + (a_{ij}) = B+A\]
- De tweede eigenschap, associativiteit voor de optelling van matrices, stellen we als volgt vast. Eerst constateren we dat \(A+B\) en \(B+C\), en dus ook #(A+B)+C# en #A+(B+C)# gelijke afmeting hebben, namelijk \(m\times n\). Vervolgens stellen we vast dat op plek \(ij\) de matrix \((A+B)+C\) het element \[((A+B)+C)_{ij}=(A+B)_{ij} +c_{ij}=(a_{ij}+b_{ij})+c_{ij}\] heeft staan en de matrix \(A+(B+C)\) het element \(a_{ij}+(b_{ij}+c_{ij})\); uiteraard zijn deze twee getallen gelijk.
De associativiteit stelt ons in staat om te spreken over \(A+B+C\) zonder te hoeven specificeren hoe we die bepalen: als \((A+B)+C\) of als \(A+(B+C)\). Er komt toch hetzelfde uit.
Als \(A\) een matrix is en \(\lambda\) een getal, dan is \(\lambda\cdot A\) of kortweg \(\lambda A\), de matrix die je krijgt door alle elementen van \(A\) met \(\lambda\) te vermenigvuldigen. We noemen deze bewerking de scalaire vermenigvuldiging van de scalar \(\lambda\) met de matrix \(A\) en het resultaat het scalaire product.
Als \(\lambda = -1\), dan schrijven we vaak \(-A\) in plaats van \(-1 A\). Deze matrix heet de tegengestelde matrix van \(A\).
Hieronder staat een voorbeeld van een scalaire vermenigvulding van een matrix met een getal.
\[\begin{aligned} -1 \matrix{3 & 0 \\ 4 & 0 \\ } &= \matrix{\left(-1\right)\cdot 3 & \left(-1\right)\cdot 0 \\ \left(-1
\right)\cdot 4 & \left(-1\right)\cdot 0 \\ }\\ \\ &= \matrix{-3 & 0 \\ -4 & 0 \\ }\end{aligned}\]
Voor scalaire vermenigvuldiging gelden onderstaande rekenregels.
Als \(A\) en \(B\) matrices van gelijke afmeting zijn, en \(\lambda\) en \(\mu\) scalairen zijn, dan:
\[
\begin{array}{rl}
1\,A\!\!\! & =A \\
(\lambda+\mu)\,A\!\!\! &= \lambda\, A+\mu\, A \\
\lambda\,(A+B)\!\!\! &= \lambda A+\lambda B \\
\lambda(\mu\, A)\!\!\! &= (\lambda\, \mu)\, A
\end{array}
\]
De bewerkingen optellen en scalaire vermenigvuldigen voor matrices hebben beide betrekking op elk element van de matrix, waar, voor elke index, de bekende vermenigvuldiging met een getal, respectievelijk de bekende optelling van getallen plaats vindt. De regels zijn dus niet anders dan de corresponderende bekende rekenregels voor getallen.
Voor vectoren hebben we ook een scalaire vermenigvuldiging gedefinieerd. Als #A# een #1\times n# matrix (een rijvector ter lengte #n#) is, of een #m\times 1# matrix (een kolomvector ter lengte #m#) is, dan komt de scalaire vermenigvuldiging van #\lambda # met #A# overeen met de scalaire vermenigvuldiging voor vectoren.
De getransponeerde van een matrix \(A\), genoteerd als \(A^{\top}\), is de matrix die je krijgt als je \(A\) spiegelt in zijn hoofddiagonaal. Als \(A\) een \(m\times n\) matrix is, dan is \(A^{\top}\) dus een \(n\times m\) matrix. Andere veelgebruikte notatie voor een getransponeerde matrix zijn \(A^{t}\) en \(A'\).
Hieronder staan twee voorbeelden van getransponeerde matrices.
\[\matrix{2 & 0 & 5 & 2 \\ 0 & 2 & 1 & 5 \\ 5 & 4 & 1 & 4 \\ }^{\!\top} = \matrix{2 & 0 & 5 \\ 0 & 2 & 4 \\ 5 & 1 & 1 \\ 2 & 5 & 4 \\ }\qquad\text{en}\qquad \matrix{2 \\ 0 \\ 5 \\ }^{\!\top}=\matrix{2 & 0 & 5 \\ }\]
Voor matrices \(A\) en \(B\) van gelijke afmeting en elke scalar \(\lambda\) geldt: \[
\begin{array}{rl}
(A+B)^{\top}\!\!\! & = A^{\top}+B^{\top} \\
(\lambda A)^{\top}\!\!\! & = \lambda A^{\top} \\
(A^{\top})^{\top}\!\!\! & =A
\end{array}
\]
Het #(i,j)#-element van #\lambda A# is #\lambda\cdot a_{ij}#, dus het #(i,j)#-element van #\left(\lambda A\right)^{\top}# is #\lambda\cdot a_{ji}#, maar dat is ook het #(i,j)#-element van #\lambda A^{\top}#, dus #\left(\lambda A\right)^{\top}=\lambda A^{\top}#.
Het bewijs van de andere regels gaat net zo.
Een symmetrische matrix is een vierkante matrix die gelijk is aan zijn getransponeerde. Een antisymmetrische matrix (ook wel scheefsymmetrische matrix genoemd) is een vierkante matrix die tegengesteld is aan zijn getransponeerde.
Anders geformuleerd: een matrix \(A\) is symmetrisch als \(A^{\top}=A\), en een matrix \(A\) is antisymmetrisch als \(A^{\top}=-A\)
Hieronder staan twee voorbeelden: een symmetrische matrix en een antisymmetrische matrix.
\(\matrix{6 & 3 & 4 \\ 3 & 8 & 9 \\ 4 & 9 & 10 \\ }\) is een symmetrische matrix omdat \(\matrix{6 & 3 & 4 \\ 3 & 8 & 9 \\ 4 & 9 & 10 \\ }^{\!\top} = \matrix{6 & 3 & 4 \\ 3 & 8 & 9 \\ 4 & 9 & 10 \\ }\).
\(\matrix{0 & 3 & 4 \\ -3 & 0 & -1 \\ -4 & 1 & 0 \\ }\) is een antisymmetrische matrix
omdat \(\matrix{0 & 3 & 4 \\ -3 & 0 & -1 \\ -4 & 1 & 0 \\ }^{\!\top} =\matrix{0 & -3 & -4 \\ 3 & 0 & 1 \\ 4 & -1 & 0 \\ }=-\matrix{0 & 3 & 4 \\ -3 & 0 & -1 \\ -4 & 1 & 0 \\ }\).