Laat #L :V\rightarrow V# een lineaire afbeelding zijn, waarbij de vectorruimte #V# eindigdimensionaal is. Volgens De matrix van een lineaire afbeelding wordt, voor elke keuze van een basis #\alpha# voor #V#, de afbeelding #L# bepaald door de matrix #L_\alpha#.
We zoeken een basis #\alpha# zodanig dat de structuur van de matrix #L_\alpha# rekenkundig eenvoudig is. De eenvoudigste structuur is de diagonaalmatrix. Zoals we snel zullen zien is het niet altijd mogelijk zo'n matrix te vinden.
De diagonaal van een matrix is de rij #(i,i)#-elementen, dat wil zeggen: de elementen waarvan het kolomnummer gelijk is aan het rijnummer.
Een vierkante matrix #A# heeft diagonaalvorm (ook: is een diagonaalmatrix) wanneer alle #(i,j)#-elementen met #i\neq j# gelijk aan nul zijn.
De matrix van vermenigvuldiging met een scalar #\lambda# op #\mathbb{R}^n# is diagonaal. Alle diagonaalelementen zijn gelijk aan #\lambda#.
De matrix \[A = \matrix{1&1\\ 0&-1}\] is niet diagonaal. Maar de lineaire afbeelding #L_A:\mathbb{R}^2\to \mathbb{R}^2# heeft de diagonaalmatrix \[L_\beta = \matrix{1&0\\ 0&-1}\] met betrekking tot de basis
\[\beta = \basis{\rv{\frac12,0},\rv{-\frac12,1}}\]Inderdaad is de coördinaatafbeelding die bij #\beta# hoort gelijk aan #\beta = \matrix{2&1\\ 0&1}#(de inverse van de matrix waarvan de kolommen de vectoren van de basis #\beta# zijn), zodat
\[L_\beta = \beta\, A\,\beta^{-1} =\matrix{2&1\\ 0&1}\,\matrix{1&1\\ 0&-1}\,\matrix{\frac12&-\frac12\\ 0&1} = \matrix{1&0\\ 0&-1}\]
De volgende uitspraak is eenvoudig te begrijpen, maar van cruciaal belang:
Laat # L :V\rightarrow V# een lineaire afbeelding zijn en #\alpha =\basis{\vec{a}_1,\ldots ,\vec{a}_n}# een basis voor #V#. De matrix #L_\alpha# heeft diagonaalvorm
\[
L_\alpha =\left(\,\begin{array}{cccc}
\lambda_1 & 0 & \ldots & 0\\
0 & \lambda_2 & \ddots & \vdots\\
\vdots & \ddots & \ddots & 0\\
0 & \ldots & 0 & \lambda_n
\end{array}\,\right)
\] dan en slechts dan als # L( \vec{a}_i)=\lambda_i\vec{a}_i# voor #i=1,\ldots ,n#.
De matrix #L_\alpha# heeft de hierboven gegeven diagonaalvorm dan en slechts dan als voor elke #i# de #\alpha#-coördinaten van # L(\vec{a}_i)# gelijk zijn aan #\rv{0,\ldots ,0,\lambda_i,0,\ldots ,0}#, dus dan en slechts dan als # L( \vec{a}_i)=0\cdot\vec{a}_1+\cdots +\lambda_i\vec{a}_i+\cdots +0\cdot \vec{a}_n=\lambda_i\vec{a}_i#.
Later zullen we nader bekijken wanneer een lineaire afbeelding een basis heeft ten opzichte waarvan de matrix diagonaal is. Hiervoor maakt het uit of we met een complexe dan wel reële vectorruimte te maken hebben. Bekijk, om dit in te zien, de scalaire vermenigvuldiging met #\ii# op de #1#-dimensionale complexe vectorruimte #\mathbb{C}#. Zoals we boven bespraken voor #\mathbb{R}^n#, is de complexe #(1\times1)#-matrix van deze lineaire afbeelding ten opzichte van de basis #\basis{1}# diagonaal. We kunnen #\mathbb{C}# ook opvatten als de #2#-dimensionale reële vectorruimte met basis #\basis{1,\ii}#. In dat geval is vermenigvuldiging met #\ii# nog steeds een lineaire afbeelding. Ze heeft matrix \[\matrix{0&-1\\ 1&0}\] ten opzichte van de gegeven basis. We zullen hieronder (in het voorbeeld van een tweedimensionale rotatie) zien dat er geen basis van de bijbehorende #2#-dimensionale reële vectorruimte is ten opzichte waarvan de matrix van deze lineaire afbeelding een diagonaalmatrix is.
De diagonaalvorm staat in verband met de volgende begrippen.
Laat # L:V\rightarrow V# een lineaire afbeelding zijn. Een vector #\vec{v}\neq\vec{0}# heet een eigenvector van # L # met eigenwaarde #\lambda# als # L (\vec{v}) = \lambda\vec{v}#.
Als #A# een #(n\times n)#-matrix is, dan heet een vector van #\mathbb{R}^n# een eigenvector van #A# als het een eigenvector van #L_A# is en heet een getal een eigenwaarde van #A# als het een eigenwaarde van #L_A# is.
Aldus is een eigenvector een vector ongelijk aan de nulvector die door # L # overgevoerd wordt in een scalair veelvoud van zichzelf; de betrokken scalar is de corresponderende eigenwaarde.
Bekijk de matrix \(A = \matrix{1&1\\ 0&1}\). De lineaire afbeelding #L_A:\mathbb{R}^2\to\mathbb{R}^2# heeft eigenvector #\rv{1,0}# met eigenwaarde #1#. Ieder andere eigenvector van #L_A# ligt in het opspansel van #\rv{1,0}#. In het bijzonder is er geen basis van eigenvectoren.
Als #\vec{v}# een eigenvector is van een lineaire afbeelding, dan is elk veelvoud van #\vec{v}# met een scalar ongelijk aan nul dat ook. Eigenvectoren behorende bij een vaste lineaire afbeelding en een vaste eigenwaarde zijn dus nooit uniek.
Bovenstaande stelling kan ook als volgt worden geformuleerd:
Laat # L :V\rightarrow V# een lineaire afbeelding zijn, waarbij #V# een vectorruimte van eindige dimensie #n# is en fixeer een basis #\alpha# voor #V#.
De matrix #L_\alpha# is dan en slechts dan diagonaal als #\alpha# een basis van eigenvectoren is. In dit geval verschijnen de eigenwaarden op de diagonaal.
Bekijk #\mathbb{R}^2# met standaardinproduct en loodrechte projectie op een lijn door de oorsprong opgespannen door #\vec{a}#. Als #\vec{b}# een vector loodrecht op #\vec{a}# is, dan zijn de vectoren #\vec{a}# en #\vec{b}# eigenvectoren van de projectie met eigenwaarden respectievelijk #1# en #0#. De matrix ten opzichte van de basis #\basis{\vec{a},\vec{b}}# is
\[
\matrix{
1 & 0\\
0 & 0
}
\] Dit is een diagonaalmatrix met eigenwaarden op de diagonaal. Let op de volgorde van #1# en #0# op de diagonaal: deze komt overeen met de volgorde van de eigenvectoren.
Bekijk in #\mathbb{R}^2# de rotatie om de oorsprong over een hoek van #90^\circ# (tegen de klok in, dus #270^\circ# met de klok mee). De bijbehorende matrix met betrekking tot de standaardbasis is \[
\matrix{
0 & -1\\
1 & 0}
\] Geen enkele vector ongelijk aan #\vec{0}# wordt afgebeeld op een scalair veelvoud van zichzelf. Immers, als #\rv{x,y}# een eigenvector met eigenwaarde #\lambda# is, dan volgt
\[\matrix{
0 & -1\\
1 & 0}\cv{x\\ y} =\lambda \cv{x\\ y}\] Dit geeft de twee lineaire vergelijkingen #-y=\lambda x# (de eerste coördinaat) en #x=\lambda y# (de tweede coördinaat) zodat #(1+\lambda^2)\cdot y = 0#. Als #y=0#, dan #x=0#, zodat #\rv{x,y}# geen eigenvector is. We kunnen dus aannemen dat #y\ne0#. Dan geldt #\lambda^2=-1#, maar dit is onmogelijk voor een reëel getal #\lambda#.
Deze lineaire afbeelding heeft geen eigenvectoren en er is zeker geen basis van eigenvectoren. Voor welke keuze van een basis ook, is de matrix van deze rotatie niet diagonaal.
Hierboven hebben we gezien dat de matrix hoort bij vermenigvuldiging met #\ii# op #\mathbb{C}#, gezien als reële vectorruimte, ten opzichte van de basis #\basis{1,\ii}#. We hebben dus vastgesteld dat vermenigvuldiging met #\ii# op #\mathbb{C}# wel bepaald wordt door een matrix in diagonaalvorm, maar dezelfde afbeelding, opgevat als lineaire afbeelding van een reële vectorruimte, niet.
Dit is een direct gevolg van bovenstaande stelling Herkenning van diagonaalvorm.
Bekijk de lineaire afbeelding #L:P_2\to P_2# op de vectorruimte #P_2# van veeltermen in #x# met graad hoogstens #2# gegeven door \[L(p(x)) = x\cdot\frac{\dd }{\dd x}\left(p(x)\right)\]
De basis #\alpha =\basis{1,x,x^2}# voor #P_2# bestaat uit eigenvectoren van #L#. Wat zijn de eigenwaarden van #L# die bij deze eigenvectoren horen?
Geef je antwoord in de vorm van een lijst ter lengte #3#.
\(\rv{0,1,2}\)
Dit volgt uit de volgende berekening, waarbij #i=0,1,2#: \[L(x^i) =x\cdot \dfrac{\dd}{\dd x}\left(x^i\right) = x\cdot i\cdot x^{i-1} = i\cdot x^i\]