Als #\alpha# en #\beta# bases zijn van een eindigdimensionale vectorruimte #V#, en de matrix #L_\alpha# van een lineaire afbeelding #L: V\to V# ten opzichte van #\alpha# gegeven is, dan kan de matrix #L_\beta# van #L# ten opzichte van #\beta# volgens de stelling Basisovergang berekend worden met de formule
\[L_\beta =T L_\alpha T^{-1}\]
waarbij #T = {}_{\beta}I_{\alpha}# de overgangsmatrix van de basis #\alpha# naar #\beta# is. Dit betekent dat we maar één keer coördinaten hoeven kiezen en vervolgens alle andere matrixgedaanten van de lineaire afbeelding #L# kunnen bepalen door uitsluitend met matrices te rekenen. We maken dit expliciet in de volgende stelling.
Laat #\alpha# een basis zijn van een #n#-dimensionale vectorruimte #V#, waarbij #n# een natuurlijk getal is, en laat #L: V\to V# een lineaire afbeelding zijn met matrix #A# ten opzichte van #\alpha#.
Een #(n\times n)#-matrix #B# is dan en slechts dan de matrix van #L# ten opzichte van een basis #\beta# voor #V# als er een inverteerbare #(n\times n)#-matrix #T# is met
\[B =T A T^{-1}\]
In het bijzonder heeft de determinant van elke matrix die #L# bepaalt dezelfde waarde, zodat we kunnen spreken van de determinant van de lineaire afbeelding #L#.
Stel dat #\beta# een basis voor #V# is, zodat #B=L_\beta#, dat wil zeggen: zodat #B# de matrix is van #L# ten opzichte van #\beta#. Dan vertelt de stelling Basisovergang ons dat #A = L_\alpha# en #B = L_\beta# aan elkaar gekoppeld zijn door middel van \(B =\left({}_\beta I_\alpha \right)\, A \left({}_\beta I_{\alpha}\right)^{-1} \). In dat geval is #T = {}_\beta I_\alpha# dan een inverteerbare #(n\times n)#-matrix met \( B= T A T^{-1}\).
Andersom: stel dat er een inverteerbare #(n\times n)#-matrix #T# is met \( B= T A T^{-1}\). Kies nu #\beta = L_T \alpha#, zodat #T = \left(\beta\alpha^{-1}\right)_{\varepsilon}#. Dan is #\basis{\beta^{-1}(\varepsilon_1),\ldots,\beta^{-1}(\varepsilon_n)}# de bijbehorende basis van #V# (omdat #\beta # inverteerbaar is met inverse #\alpha^{-1}L_{T^{-1}}#), en volgt
\[ L_\beta = {}_\beta I_\alpha\, A\, \left({}_\beta I_\alpha\right)^{-1} = \left(\beta\alpha^{-1}\right)_\varepsilon A \left(\beta\alpha^{-1}\right)_\varepsilon^{-1} = T AT^{-1} = B\]
Hiermee is aangetoond dat #B# de matrix van #L# ten opzichte van de basis #\beta# voor #V# is.
Om de laatste uitspraak te bewijzen, laten we zien dat #B# en #A# dezelfde determinant hebben. Met gebruikmaking van eerder vastgestelde eigenschappen van de determinant vinden we \[\det(B) =\det\left(T AT^{-1} \right) =\det(T)\cdot\det( A)\cdot\det(T^{-1}) =\det( A)\cdot\det(T)\cdot\det(T)^{-1}=\det(A) \]
Een gevolg van deze stelling is het bekende feit dat de #(n\times n)#-nulmatrix de enige matrix is van de nulafbeelding van een #n#-dimensionale vectorruimte naar zichzelf.
Ook een gevolg van deze stelling is het bekende feit dat de #(n\times n)#-identiteitsmatrix de enige matrix is van de identieke afbeelding van een #n#-dimensionale vectorruimte naar zichzelf.
Een ander gevolg is dat bij elke lineaire afbeelding van een #1#-dimensionale vectorruimte naar zichzelf een unieke matrix hoort. Immers, die afbeelding moet een scalaire vermenigvuldiging zijn en de matrix moet de scalair zijn waarmee vermenigvuldigd wordt.
Als twee lineaire afbeeldingen #V\to V# verschillende determinanten hebben, dan zijn er geen twee bases van #V# te vinden, zodat de matrix van de ene lineaire afbeelding ten opzichte van de eerste basis gelijk is aan de matrix van de andere lineaire afbeelding ten opzichte van de tweede basis.
We geven een speciale naam, geconjugeerd, aan matrices #A# en #B# die beide bij een gegeven lineaire afbeelding horen. We laten ook zien dat deze relatie aan drie belangrijke eigenschappen voldoet, die samengevat worden onder het begrip equivalentierelatie:
Laat #n# een natuurlijk getal zijn. Twee #(n\times n)#-matrices #A# en #B# heten geconjugeerd als er een inverteerbare #(n\times n)#-matrix #T# is met #B = T\, A\, T^{-1}#. We zeggen dan dat de matrix #T# de matrix #A# naar #B# conjugeert en noemen #T# wel de conjugator.
Geconjugeerd zijn is een equivalentierelatie; dat wil zeggen het heeft de volgende drie eigenschappen voor elke drietal #(n\times n)#-matrices #A#, #B#, #C#:
- Reflexiviteit: #A# is geconjugeerd met zichzelf (dus met #A#)
- Symmetrie: Als #A# en #B# geconjugeerd zijn, dan ook #B# en #A#
- Transitiviteit: Als #A# en #B# geconjugeerd zijn, en #B# en #C# geconjugeerd zijn, dan zijn ook #A# en #C# geconjugeerd.
Reflexiviteit: Neem voor #T# de #(n\times n)#-matrix eenheidsmatrix # I#. Dan geldt #A = I A I^{-1}#. Dus #A# en #A# zijn geconjugeerd.
Symmetrie: Stel dat #A# en #B# geconjugeerd zijn. Dan is er een inverteerbare #(n\times n)#-matrix #T# met #B = T\,A\,T^{-1}#. Door beide zijden van links met #T^{-1}# en van rechts met #T# te vermenigvuldigen, zien we dat #T^{-1} B\, T = A#, ofwel \[A = \left(T^{-1}\right) B\,\left(T^{-1}\right)^{-1}\]Omdat #T^{-1}# een inverteerbare #(n\times n)#-matrix is, concluderen we dat #B# en #A# geconjugeerd zijn.
Associativiteit: Stel dat #A# en #B# geconjugeerd zijn, en ook #B# en #C# geconjugeerd zijn. Dan zijn er inverteerbare #(n\times n)#-matrices #S# en #T#, zodat #B = SAS^{-1}# en #C = TBT^{-1}#. Bijgevolg voldoet de inverteerbare #(n\times n)#-matrix #T\,S# aan \[ C = TBT^{-1} = TSAS^{-1}T^{-1} = \left(T\, S\right) A \left(T\, S\right)^{-1}\] zodat #A# en #C# geconjugeerd zijn.
Het bepalen of twee #(n\times n)#-matrices #A# en #B# geconjugeerd zijn komt grotendeels neer op het oplossen van lineaire vergelijkingen: we beginnen met het oplossen van de matrixvergelijking\[B \, T= T\, A\phantom{xxx}\text{in de onbekende }\phantom{xxx}T\] en zoeken vervolgens naar een inverteerbare matrix onder de oplossingen. Hier is een voorbeeld: Stel\[A = \matrix{1&0\\ 0& -1}\phantom{xxx}\text { en }\phantom{xxx} B = \matrix{1&1\\ 0& 1}\]Als #A# en #B# geconjugeerd zijn, dan is er een inverteerbare #(2\times2)#-matrix #T# met #B = TAT^{-1}#.
Na vermenigvuldiging van rechts met #T# geeft dit de lineaire matrixvergelijking \[ B\,T = T\,A\]Schrijven we\[T =\matrix{x&y\\ z&w}\] dan gaat de matrixvergelijking na uitwerking van de matrixvermenigvuldigingen over in\[\matrix{x+z& y+w\\ z & w} = \matrix{x&-y\\ z&-w}\]en dus in het stelsel lineaire vergelijkingen\[\lineqs{ x+z &=& x\\ y+w &=& -y\\ z &=& z\\ w &=& -w}\]Dit stelsel heeft als oplossing\[T = \matrix{x&y\\ z&w} = \matrix{x&0\\0&0}\]waarbij #x# een vrije parameter is. Zo'n matrix #T# is niet inverteerbaar, zodat #A# en #B# niet geconjugeerd zijn. Met andere woorden: Er is geen basis van #\mathbb{R}^2# ten opzichte waarvan de lineaire afbeelding met matrix #A# ten opzichte van de standaardbasis de matrix #B# heeft.
In dit geval kun je al direct zien dat #A# en #B# niet geconjugeerd zijn omdat ze verschillende determinant hebben. Later bespreken we de bepaling van de Jordannormaalvorm van een vierkante matrix; deze methode is veel efficiënter.
Bij gegeven #(n\times n)#-matrices #A# en #B# en inverteerbare #(n\times n)#-matrix #T# zodat #B = TAT^{-1}#, is de conjugator #T# niet uniek: elk scalair veelvoud van #T# (dat ongelijk is aan de nulmatrix) voldoet eveneens als conjugator van #A# naar #B#. Bovendien kan het voorkomen dat meerdere matrices die géén scalaire veelvouden van elkaar zijn, toch allemaal conjugatoren van #A# naar #B# zijn. Neem bijvoorbeeld #n=2# en #A = B = I_2#. Dan voldoet elke inverteerbare #(2\times 2)#-matrix #T# aan #B = TAT^{-1}# per definitie van de inverse matrix, want #I_2 = T\,T^{-1} = T\,I_2T^{-1}#.
Een andere veel gebruikte naam voor geconjugeerde matrices is gelijksoortige matrices.
De verzameling #M_{n\times n}# van #(n\times n)#-matrices kan opgedeeld worden in onderling disjuncte deelverzamelingen die elk bestaan uit matrices die onderling geconjugeerd zijn en niet geconjugeerd met welke matrix dan ook van een ander deel. Dit is een eigenschap die voor elke equivalentierelatie geldt. Die deelverzamelingen heten in het algemeen equivalentieklassen en worden ook vaak vernoemd naar de specifieke equivalentierelatie, hier dus conjugatieklassen.
Laat #V# een vectorruimte van eindige dimensie #n# zijn. Voor elke lineaire afbeelding #L:V\to V# vormen de matrices in #M_{n\times n}# die #L# bepalen met betrekking tot een geschikte basis, een conjugatieklasse.
De conjugatieklasse van de identieke afbeelding bestaat uitsluitend uit #I_n#. De enige lineaire afbeeldingen waarvan de conjugatieklasse uit een enkele matrix bestaat, zijn de scalaire vermenigvuldigingen. Immers, de matrix die hoort bij een scalaire vermenigvuldiging met #\lambda# is de diagonaalmatrix #D_\lambda=\lambda\cdot I_n# waarvan alle diagonaalelementen gelijk zijn aan #\lambda#. Deze matrix is de enige die met alle andere #(n\times n)#-matrices commuteert. Daardoor conjugeert #D_\lambda# alleen met zichzelf: #TD_\lambda T^{-1}=D_\lambda# voor elke inverteerbare matrix #T#.
Uit bovenstaande stelling en eigenschappen van de determinant volgt dat twee vierkante matrices met verschillende determinant niet geconjugeerd zijn. Dit is ook direct in te zien: als #A# en #B# geconjugeerde #(n\times n)#-matrices zijn, dan is er een inverteerbare #(n\times n)#-matrix #T#, zodat #A = T\, B\, T^{-1}#. Uit bekende
eigenschappen van de determinant volgt dan \[\det(A) = \det(T\, B\, T^{-1}) = \det(T)\cdot\det( B)\cdot\det( T^{-1}) = \det(T)\cdot\det( B)\cdot\det( T)^{-1} = \det( B)\]
Omdat geconjugeerde matrices bij dezelfde lineaire afbeelding horen, delen zij alle eigenschappen van deze afbeelding. Hierboven zagen we al dat geconjugeerde matrices dezelfde determinant hebben. Andere eigenschappen die geconjugeerde matrices delen, zijn spoor, karakteristieke veelterm, rang en minimumveelterm. Twee matrices waarvan één of meer van deze eigenschappen verschillen, zijn niet geconjugeerd.
Een eigenschap van een matrix van een lineaire afbeelding die niet afhangt van de gekozen basis heet een invariant.
Dankzij een stelling die we later behandelen, kun je aan de karakteristieke veelterm direct zien of twee #(2\times 2)#-matrices geconjugeerd zijn of niet. Dat geldt echter niet voor matrices met grotere afmetingen.
De volgende twee matrices #A# en #B# zijn geconjugeerd:\[ A = \matrix{4&-3\\ 6 &-6}\phantom{xxx}\text{ en }\phantom{xxx} B = \matrix{4 & 18 \\ -1 & -6 \\ }\]Bepaal een conjugator #T# van #A# naar #B#; dat wil zeggen: een inverteerbare #(2\times2)#-matrix #T#, zodat\[ B = T\, A\, T^{-1}\]
#T = # #\matrix{-6 & 0 \\ 0 & 1 \\ }#
De matrix #T# is inverteerbaar, want #\det(T)\ne0#. Het is eenvoudig na te gaan dat #T# voldoet aan \(B = T\, A\, T^{-1}\):
\[\begin{array}{rcl} T\, A\, T^{-1} &= & \matrix{-6 & 0 \\ 0 & 1 \\ }\,\matrix{4&-3\\ 6 &-6} \, \matrix{-{{1}\over{6}} & 0 \\ 0 & 1 \\ }\\
&= & \matrix{-24 & 18 \\ 6 & -6 \\ } \, \matrix{-{{1}\over{6}} & 0 \\ 0 & 1 \\ }\\ &=& \matrix{4 & 18 \\ -1 & -6 \\ }\\ &=& B
\end{array}\]
Om #T# te vinden lossen we eerst een matrixvergelijking op:
\[\begin{array}{rcl} B &=& T\, A\, T^{-1}\\
&&\phantom{xxx}\color{blue}{\text{de vergelijking die geconjugeerd zijn uitdrukt}}\\
B \, T&=& T\, A\\
&&\phantom{xxx}\color{blue}{\text{beide zijden van rechts vermenigvuldigd met }T}\\
\matrix{18 z+4 x & 4 y+18 w \\ -6 z-x & -y-6 w \\ }&=& \matrix{6 y+4 x & -6 y-3 x \\ 4 z+6 w & -3 z-6 w \\ }\\
&&\phantom{xxx}\color{blue}{\text{matrices vermenigvuldigd, waarbij }T=\matrix{x&y\\ z&w}}\\
\end{array}\]De oplossing van dit stelsel lineaire vergelijkingen in #x#, #y#, #z# en #w# is
\[
x=-10 z-6 w ,\quad y=3 z
\]We hebben dus de vrije parameters # w , z #. Kiezen we # w=1 , z=0 #, dan vinden we # x=-6 , y=0 #, zodat
\[ T = \matrix{x&y\\ z&w} = \matrix{-6 & 0 \\ 0 & 1 \\ }\]Dit antwoord volstaat omdat de matrix inverteerbaar is.
Het antwoord is niet uniek. Andere keuzes dan # w=1 , z=0 # voor de elementen van # T=\matrix{x&y\\ z&w}# zijn mogelijk.