Conjugatie gaat over matrices die een lineaire afbeelding van een vectorruimte naar zichzelf weergeven. Hieronder bespreken we het geval van twee verschillende vectorruimten of, algemener, twee verschillende bases: één voor het domein #V# en één voor het bereik #W# van een lineaire afbeelding #V\to W#. We zullen zien dat het probleem om te bepalen of twee matrices dezelfde lineaire afbeelding weergeven ten opzichte van een basis voor het domein en een basis voor het bereik, veel makkelijker is dan het geval waarin dezelfde basis voor domein als voor bereik gekozen moet worden.
Laat #m# en #n# natuurlijke getallen zijn. Twee #(m\times n)#-matrices #A# en #B# heten matrix-equivalent als er een inverteerbare #(m\times m)#-matrix #S# en een inverteerbare #(n\times n)#-matrix #T# zijn met #B = S\, A\, T#.
- Twee matrices #A# en #B# van dezelfde afmeting zijn dan en slechts dan equivalent als ze dezelfde rang hebben. In het bijzonder is matrix-equivalentie een equivalentierelatie.
- Laat #\alpha# een basis zijn van een #n#-dimensionale vectorruimte #V#, laat #\beta # een basis zijn van een #m#-dimensionale vectorruimte #W#, en laat #L: V\to W# een lineaire afbeelding zijn met matrix #A# ten opzichte van #\alpha# en #\beta#. Een #(m\times n)#-matrix #B# is dan en slechts dan de matrix van #L# ten opzichte van een basis voor #V# en een basis voor #W# als #A# en #B# matrix-equivalent zijn.
1. Stel dat #B = S\, A\, T# voor een inverteerbare #(m\times m)#-matrix #S# en een inverteerbare #(n\times n)#-matrix #T#. Dan is #\im{B}# gelijk aan #\im{A}# onder #S# (we gebruiken dat #T# inverteerbaar is, zodat het beeld van #\mathbb{R}^n# onder #T# gelijk is aan #\mathbb{R}^n#). Omdat #S# inverteerbaar is, hebben #\im{A}# en #\im{B}# dezelfde dimensie. Volgens de stelling Rang is dimensie kolommenruimte betekent dit dat de rang van #A# gelijk is aan de rang van #B#.
Stel, voor het bewijs van het omgekeerde, dat de rang van #A# gelijk is aan de rang van #B#. Geef die rang aan met #r#. Dan is de rij- en kolomgereduceerde trapvorm van zowel #A# als #B# gelijk aan de matrix #K_r# die overal nul heeft staan, behalve op de eerste #r# diagonaalelementen, die gelijk zijn aan #1#. Omdat #K_r# wordt verkregen door #A# en #B# links en rechts met inverteerbare matrices te vermenigvuldigen, volgt dat #A# en #B# matrix-equivalent zijn.
Het feit dat matrix-equivalentie een equivalentierelatie is, volgt onmiddellijk uit de karakterisatie van de relatie gegeven in uitspraak 1: omdat de rang een functie is op de verzameling #(m\times n)#-matrices, is het hebben van het zelfde beeld onder de rang een equivalentierelatie.
2. Dit bewijs loopt als het vergelijkbare bewijs in het geval van conjugatie. Voor de matrix #A# als in de aanname van de uitspraak geldt #A = {}_\beta L_\alpha#. Als #\alpha'# ook een basis van #V# is en #\beta'# ook een basis van #W#, dan is #B = {}_{\beta'}L_{\alpha'}# de matrix van #L# ten opzichte van deze bases en geldt dus \[B = {}_{\beta'}I_\beta\, {}_\beta L_\alpha \,{}_{\alpha}I_{\alpha'}={}_{\beta'}I_\beta\, A\, {}_{\alpha}I_{\alpha'}\]Omdat de matrices #{}_{\beta'}I_\beta # en #{}_{\alpha}I_{\alpha'}# inverteerbaar zijn, volgt dat #A# en #B# matrix-equivalent zijn.
Andersom, als er inverteerbare matrices #S# en #T# zijn zodat #B = S\, A\, T#, dan voldoen de basis #\beta'# behorende bij de coördinatisering #L_S\,\beta# en de basis #\alpha'# behorende bij de coördinatisering #L_T^{-1}\,\alpha# aan #B = {}_{\beta'}L_{\alpha'}#, want dan geldt \[ B = S\, A\, T =( \beta'\,\beta^{-1})_\varepsilon\,{}_\beta L_\alpha\,(\alpha\,(\alpha')^{-1})_\varepsilon= {}_{\beta'} L_{\alpha'}\]
Het bepalen of twee #(m\times n)#-matrices #A# en #B# matrix-equivalent zijn, komt dus neer op het nagaan of #\text{rang}(A) = \text{rang}(B)#.
Als #A# en #B# gelijke rang #r# hebben, is het mogelijk om inverteerbare matrices #S# en #T# te vinden, zodat #B = S\, A\, T #. Met rij- en kolomreductie op zowel #A# als #B# vinden we inverteerbare matrices #S_a#, #S_b#, #T_a#, #T_b#, zodat
\[A = S_a K_r T_a\phantom{xxx}\text{ en }\phantom{xxx} B = S_b K_r T_b\]
waarbij #K_r# een #(m\times n)#-matrix van rang #r# in rij- en kolomgereduceerde trapvorm is. Dan geldt \(B = S\, A \, T\), waarbij \(S=S_b\, S_a^{-1}\) en \(T = T_a^{-1}T_b\) inverteerbare matrices zijn.
We kunnen het vinden van #S# en #T# ook benaderen met het oplossen van lineaire vergelijkingen: we beginnen met het oplossen van de matrixvergelijking
\[B \, U= S\, A\phantom{xxx}\text{in de onbekende vierkante matrices }\phantom{xxx}S,\ U\] en zoeken vervolgens naar inverteerbare matrices onder de oplossingen. Hier is een voorbeeld: Stel
\[A = \matrix{1&0\\ 0& -1}\phantom{xxx}\text { en }\phantom{xxx} B = \matrix{1&1\\ 0& 1}\]
Als #A# en #B# matrix-equivalent zijn, dan zijn er inverteerbare #(2\times2)#-matrices #S# en #T# met #B = S\,A\,T#. Na vermenigvuldiging van rechts met #U = T^{-1}# geeft dit de lineaire matrixvergelijking \[ B\,U = S\,A\]Schrijven we\[S= \matrix{a&b\\ c&d}\quad \text{en} \quad U = \matrix{x&y\\ z&w}\] dan gaat de matrixvergelijking na uitwerking van de matrixvermenigvuldigingen over in
\[\matrix{x+z& y+w\\ z & w} = \matrix{a&-b\\ c&-d}\]
en dus in het stelsel lineaire vergelijkingen
\[\lineqs{ x+z &=& a\\ y+w &=& -b\\ z &=& c\\ w &=& -d}\]
We concluderen dat #S = \matrix{x+z &-y-w\\ z & -w}#. Als we #y=z = 1# kiezen en #w=x=0#, dan zijn #S# en #U# inverteerbaar en vinden we, met #T = U^{-1}#,
\[S\, A\, T = \matrix{1 &-1\\ 1 & 0} \matrix{1&0\\ 0& -1} \matrix{0&1\\ 1&0} =\matrix{1&1\\ 0& 1}\ =B\]
Hieruit blijkt dat #A# en #B# matrix-equivalent zijn. In dit geval zijn er dus bases #\alpha# en #\beta# van #\mathbb{R}^2#, zodat de lineaire afbeeldingen #L_A# en #{}_\beta (L_B)_\alpha# aan elkaar gelijk zijn.
Bij gegeven matrix-equivalente #(m\times n)#-matrices #A# en #B# zijn de inverteerbare #(m\times m)#-matrix #S# en de inverteerbare #(n\times n)#-matrix #T# zodat #B = S\,A\,T# niet uniek: voor een willekeurige constante #c# ongelijk aan nul voldoen de scalaire veelvouden #S'=c\, S# en #T'=c^{-1}\, T# immers ook aan de vorm #B = S'\,A\,T'#. Bovendien voldoen soms andere keuzes voor #S# en #T#: neem bijvoorbeeld #n=2# en #A = B = I_2#. Dan voldoet elke inverteerbare #(2\times 2)#-matrix #S# aan #B = S\,A\,S^{-1}# per definitie van de inverse matrix, want #I_2 = S\,S^{-1} = S\,I_2\,S^{-1}#.
Omdat matrix-equivalentie een equivalentierelatie is, kan de verzameling #M_{m\times n}# van #(m\times n)#-matrices opgedeeld worden in onderling disjuncte deelverzamelingen die elk bestaan uit matrices die onderling matrix-equivalent zijn: de matrix-equivalentieklassen.
Twee #(m\times n)#-matrices zijn dan en slechts dan matrix-equivalent als ze dezelfde rang hebben. Met andere woorden: de matrix-equivalentieklassen bestaan uit alle elementen van #M_{m\times n}# met een vaste rang.
De uitspraak dat matrix-equivalentie een equivalentierelatie is, volgt onmiddellijk uit de stelling dat twee matrices van gelijke afmetingen dan en slechts dan matrix-equivalent zijn als ze dezelfde rang hebben: de rang is een afbeelding gedefinieerd op #M_{m\times n}# en voor elke afbeelding op een verzameling is de relatie "Hetzelfde beeld hebben" een equivalentierelatie.
Hier geven we nog een direct bewijs door de drie kenmerken van equivalentie na te gaan voor matrix-equivalentie:
Reflexiviteit: Neem #S=I_m# en #T=I_n#. Dan geldt #A = I_m\,A\,I_n#. Dus #A# is matrix-equivalent met zichzelf.
Symmetrie: Stel dat #A# en #B# matrix-equivalent zijn. Dan zijn er een inverteerbare #(m\times m)#-matrix #S# en een inverteerbare #(n\times n)#-matrix #T# met #B = S\,A\,T#. Door van links met #S^{-1}# en van rechts met #T^{-1}# te vermenigvuldigen, zien we dat #S^{-1} B\, T ^{-1}= A#, ofwel \[A = \left(S^{-1}\right) B\,\left(T^{-1}\right)\]Omdat #S^{-1}# een inverteerbare #(m\times m)#-matrix is en #T^{-1}# een inverteerbare #(n\times n)#-matrix is, concluderen we dat #B# en #A# matrix-equivalent zijn.
Associativiteit: Stel dat #A# en #B# matrix-equivalent zijn, en ook #B# en #C# matrix-equivalent zijn. Dan zijn er inverteerbare #(m\times m)#-matrices #S# en #R# en inverteerbare #(n\times n)#-matrices #T# en #U#, zodat #B = S\,A\,T# en #C = R\,B\,U#. Bijgevolg voldoen de inverteerbare #(m\times m)#-matrix #R\,S# en de inverteerbare #(n\times n)#-matrix #T\,U# aan \[ C = R\,B\,U =R\,S\,A\,T\,U = \left(R\, S\right)\, A \,\left(T\, U\right)\] zodat #A# en #C# matrix-equivalent zijn.
We geven nog enkele andere karakterisaties van lineaire afbeeldingen met gelijke rang. We brengen in herinnering van De matrix van een lineaire afbeelding dat, voor een lineaire afbeelding #L:V\to W# en bases #\alpha# voor #V# en #\beta# voor #W#, de matrix van #L# met betrekking tot #\alpha# en #\beta# aangegeven wordt met #{}_\beta L_\alpha#, en, ingeval #V=W# en #\alpha = \beta#, ook door #L_\alpha#.
Laat #V# en #W# vectorruimten zijn van eindige dimensie #n#, respectievelijk #m#, en #L# en #M# lineaire afbeeldingen #V\to W# zijn. De volgende uitspraken zijn equivalent.
- Er zijn isomorfismen #P: V\to V# en #Q:\ W\to W#, zodat #M = Q\,L\,P#.
- Er zijn bases #\beta_1# en #\beta_2# voor #V# en #\gamma_1# en #\gamma_2# voor #W#, zodat #{}_{\gamma_1}L_{\beta_1} = {}_{\gamma_2}M_{\beta_2}#.
- Er zijn bases #\beta# voor #V# en #\gamma# voor #W#, zodat #{}_{\gamma}L_{\beta} # en # {}_{\gamma}M_{\beta}# matrix-equivalent zijn.
- Voor elk tweetal bases #\beta# voor #V# en #\gamma# voor #W# zijn #{}_{\gamma}L_{\beta} # en # {}_{\gamma}M_{\beta}# matrix-equivalent.
- Voor elk tweetal bases #\beta# voor #V# en #\gamma# voor #W# hebben #{}_{\gamma}L_{\beta} # en # {}_{\gamma}M_{\beta}# gelijke rang.
De equivalentie van 4 en 5 volgt direct uit de stelling Matrix-equivalentie hierboven. Om de equivalentie van de eerste vier uitspraken te bewijzen, gebruiken we het schema
\[1\Rightarrow 4 \Rightarrow 3\Rightarrow 2\Rightarrow 1\]
#1 \Rightarrow 4#: Stel dat er isomorfismen #P: V\to V# en #Q:\ W\to W# zijn, zodat #M = Q\,L\,P#. Laat verder #\beta# een basis voor #V# en #\gamma# een basis voor #W# zijn. Dan geldt
\[{}_{\gamma}M_{\beta} ={}_{\gamma}(Q\,L\,P)_{\beta}=Q_{\gamma}\,{}_{\gamma}L_{\beta}\,P_{\beta}\] waarbij #Q_{\gamma}# en #P_{\beta}# inverteerbare matrices zijn. Dit betekent dat #{}_{\gamma}L_{\beta}# en #{}_{\gamma}M_{\beta}# matrix-equivalent zijn.
#4 \Rightarrow 3#: Dit volgt onmiddellijk uit het feit dat elke keuze van #\beta# en #\gamma# als in 4 voldoet voor 3.
#3 \Rightarrow 2#: Stel dat #\beta# een basis is voor #V# en #\gamma# een basis voor #W#, zodat #{}_{\gamma}L_{\beta} # en # {}_{\gamma}M_{\beta}# matrix-equivalent zijn. Dan zijn er inverteerbare matrices #C# van afmetingen #n\times n# en #D# van afmetingen #m\times m#, zodat \[{}_{\gamma}M_{\beta} =D\, {}_{\gamma}L_{\beta}\,C\]Laat de basis #\beta_1# voor #V# bestaan uit de beelden van de basis #\beta# onder #L_C^{-1}# en laat de basis #\gamma_1# voor #W# bestaan uit de beelden van de basis #\gamma# onder #L_D#. Dan geldt #C = \beta\beta_1^{-1}={}_\beta I_{\beta_1}# en #D=\gamma_1\gamma^{-1}={}_{\gamma_1}I_{\gamma}#, zodat\[D\, {}_{\gamma}L_{\beta}\,C = {}_{\gamma_1}I_{\gamma}\, {}_{\gamma}L_{\beta}\,{}_{\beta}I_{\beta_1} ={}_{\gamma_1}L_{\beta_1}\]Kiezen we nu #\beta_2 = \beta# en #\gamma_2 = \gamma#, dan vinden we
\[{}_{\gamma_2}M_{\beta_2} ={}_{\gamma}M_{\beta} =D \,{}_{\gamma}L_{\beta}\,C = {}_{\gamma_1}L_{\beta_1}\]wat te bewijzen was.
#2 \Rightarrow 1#: Stel dat er bases #\beta_1# en #\beta_2# voor #V# en #\gamma_1# en #\gamma_2# voor #W# zijn, zodat #{}_{\gamma_1}L_{\beta_1} = {}_{\gamma_2}M_{\beta_2}#. Dan geldt na linksvermenigvuldiging met #\gamma_2^{-1}# en rechtsvermenigvuldiging met #\beta_2#:
\[\gamma_2^{-1}\gamma_1 L \beta_1^{-1}\beta_2 = M\]De isomorfismen #Q = \gamma_2^{-1}\gamma_1 # en # P = \beta_1^{-1}\beta_2# voldoen dus aan #M = Q\,L\,P#, wat uitspraak 1 bewijst.
Twee matrices bepalen dus dan en slechts dan dezelfde lineaire afbeelding ten opzichte van eventueel verschillende bases als elk van beide tot dezelfde matrix
\[K_r = \matrix{1&0&0&\cdots& 0&0&\cdots&0\\ 0&1&0&\cdots &0&0&\cdots&0\\ 0&0&\ddots&\cdots &0&0&\cdots&0\\ \vdots&\vdots&\vdots&\ddots &\vdots&\vdots&\vdots&\vdots\\0&0&0&\cdots &1&0&\cdots&0\\ 0&0&0&\cdots&0& 0&\cdots&0\\ 0&0&0&\cdots&0& 0&\ddots&\vdots\\ 0&0&0&\cdots&0& 0&\cdots&0}\]geveegd kan worden met behulp van rij- en kolombewerkingen, waarbij het aantal enen gelijk is aan de rang #r# van elk van de twee matrices.
Uit de stelling is het volgende eerder besproken resultaat onmiddellijk af te leiden:
Een #(m\times n)#-matrix #A# heeft dan en slechts dan rang #r# als er een inverteerbare #(m\times m)#-matrix #D# en een inverteerbare #(n\times n)#-matrix #C# zijn zodat #A = D\, K_{r}\,C#, waarbij #K_{r}# de #(m\times n)#-matrix is die uit de nulmatrix van dezelfde afmetingen te verkrijgen is door de eerste #r# diagonaalelementen gelijk aan #1# te maken.
Bekijk de matrices \[ A = \matrix{0 & 0 & 0 \\ 0 & 0 & 0 \\ }\phantom{xx}\text{ en }\phantom{xx} B = \matrix{-1 & -2 & -1 \\ 2 & 4 & 2 \\ } \]
Zijn de matrices #A# en #B# matrix-equivalent?
Nee
Volgens de stelling
Matrix-equivalentie zijn de matrices dan en slechts dan matrix-equivalent als ze gelijke rang hebben. De rang van #A# is # 0 # en de rang van #B# is #1#. Het antwoord is dus Nee.
De matrix #A# is door middel van rij- en kolombewerkingen te reduceren tot #\matrix{0 & 0 & 0 \\ 0 & 0 & 0 \\ }# en de matrix #B# tot #\matrix{1 & 0 & 0 \\ 0 & 0 & 0 \\ }#.
Immers,
\[\begin{array}{rcl}B &=& \matrix{1 & -1 \\ -2 & 3 \\ }\, \matrix{1 & 0 & 0 \\ 0 & 0 & 0 \\ }\, \matrix{-1 & -2 & -1 \\ 3 & 8 & 2 \\ 2 & 5 & 1 \\ }\end{array}\]