We zijn nu in staat een lineaire afbeelding tussen duale ruimten aan te wijzen die correspondeert met de getransponeerde matrix.
Als # L :V\rightarrow W# een lineaire afbeelding van de vectorruimte #V# naar de vectorruimte #W# is, dan hoort daar een lineaire afbeelding # L ^\star : W^\star \rightarrow V^\star # bij die als volgt is gedefinieerd:
\[L ^\star (f) = f\, L \]
voor elke lineaire functie #f:W\rightarrow \mathbb{R}# uit #W^\star #. Deze afbeelding # L ^\star # heet de door # L # geïnduceerde duale afbeelding.
Voor #\vec{v}# in #V# en #f# in #W^\star# geldt dus \[\left(L^\star (f)\right)(\vec{v}) = f(L(\vec{v}))\]
Laat #P# de vectorruimte zijn van alle veeltermen in #x# en laat #s_a#, waarbij #a# een getal is, de lineaire functionaal op #P# zijn gegeven door #\varphi(f(x)) = f(a)#; in woorden: substitutie van #x# door #a#. De waarde in #s_a# van de duale afbeelding van differentiatie #D:P\to P# wordt gegeven door
\[\begin{array}{rcl} \left(D^\star(s_a)\right)(f(x))&=& s_a(D(f(x)))= s_a(f'(x))= f'(a)\end{array}\] Dat wil zeggen: #D^\star(s_a)# is de lineaire functionaal die aan een veelterm #f(x)# de waarde van de afgeleide in #a# toevoegt.
Laat #L:\mathbb{R}^2\to\mathbb{R}^2# de lineaire afbeelding zijn gegeven door \[L(\rv{x,y})=\rv{a\cdot x+b\cdot y,c\cdot x+d\cdot y}\] Dan bestaat de matrix #A=L_\varepsilon# van #L# uit de kolomvectoren die de beelden van de standaard basisvectoren onder #L# zijn:
\[A= \matrix{a&b\\ c & d}\] Gebruiken we de coördinaten #x# en #y# als de duale basis van de standaard basis #\epsilon#, dan kunnen we de duale afbeelding geïnduceerd door #L# als volgt berekenen:
\[\begin{array}{rcl}(L^\star(x))(\rv{p,q}) &=& x(L(\rv{p,q})) \\ &=& x(\rv{a\cdot p+b\cdot q,c\cdot p+d\cdot q})\\ & =& a\cdot p+b\cdot q\\ &=&(a\cdot x +b\cdot y)(\rv{p,q})\\ &&\text{and}\\ (L^\star(y))(\rv{p,q}) &=& y(L(\rv{p,q})) \\&=& y(\rv{a\cdot p+b\cdot q,c\cdot p+d\cdot q})\\ & =& c\cdot p+d\cdot q\\ &=&(c\cdot x +d\cdot y)(\rv{p,q})\end{array}\]
Dit betekent dat\[L^\star(x) =a\cdot x +b\cdot y\quad\text{ en }\quad L^\star(y) =c\cdot x +d\cdot y\]
De matrix van #L^\star# ten opzichte van de duale basis #\delta = \basis{x,y}# is dus
\[L^\star_\delta = \matrix{a&c\\ b&d} = A^\top\]
De stelling hieronder geeft aan dat de duale afbeelding hoort bij de getransponeerde matrix.
Laat #V# en #W# eindigdimensionale vectorruimten zijn. Als de lineaire afbeelding #L:V\rightarrow W# de matrix #A# heeft ten opzichte van de bases #\alpha =\basis{ \vec{a}_1, \ldots , \vec{a}_n}# voor #V# en #\beta =\basis{ \vec{b}_1, \ldots , \vec{b}_m}# voor #W#, dan is de matrix van # L ^\star # ten opzichte van de duale basis #\beta^\star =\basis{ \vec{b}_1^\star , \ldots ,
\vec{b}_m^\star }# voor #W^\star # en #\alpha^\star =\basis{\vec{a}_1^\star , \ldots , \vec{a}_n^\star} # voor #V^\star # gelijk aan #A^\top#. In formulevorm: \[{}_{\alpha^\star}L^\star_{\beta^\star}= \left( {}_{\beta}L_{\alpha}\right)^\top\]
We moeten het #i,j# element van de matrix #A^\star# van #L^\star# bepalen. Daartoe sporen we de #i#-de #\alpha^\star #-coördinaat op van het beeld # L ^\star (\vec{b}_j^\star )# van de #j#-de #\beta^\star #-basisvector:
\[\begin{array}{rcl} A^\star_{ij} &=& \left(\alpha^\star L^\star (\vec{b}^\star_j)\right)_{i} \\ &=& \left(\alpha^\star \left(\vec{b}^\star_j L\right)\right)_{i} \\ &=& \vec{b}^\star_j L(\vec{a}_i) \\ &=& A_{ji} \\ &=& \left(A^{\top}\right)_{ij} \end{array}\] Blijkbaar geldt #A^\star =A^\top#.
Als #V # en #W# coördinaatruimten zijn, dan is het resultaat als volgt te formuleren: Laat # L :\mathbb{R}^n \rightarrow \mathbb{R}^m# een lineaire afbeelding zijn met matrix #A#. Dan heeft de duale afbeelding # L^\star:\mathbb{R}^m \rightarrow \mathbb{R}^n# de matrix #A^\top#. In formulevorm: \(\left(L_A\right)^\star = L_{A^\top}\). Dit feit stond eerder aangekondigd.
Hieronder staan nog twee eigenschappen die we al kennen voor de getransponeerde. We brengen in herinnering dat #L(V,W)# een vectorruimte is.
Laat #U#, #V# en #W# vectorruimten zijn.
- De afbeelding #L(V,W)\to L(W^\star,V^\star)# die aan elke lineaire afbeelding #L:V\to W# de lineaire afbeelding #L^\star:W^\star\to V^\star# toewijst, is lineair.
- Als #L:V\to W# en #M:U\to V # twee lineaire afbeeldingen zijn, dan geldt #(L\,M)^\star = M^\star\,L^\star#.
Beide eigenschappen kunnen bewezen worden door alle definities uit te schrijven:
1. Voor scalairen #a# en #b#, lineaire afbeeldingen #L# en #N# van #V# naar #W#, en elementen #\varphi# in #W^\star# en #\vec{v}# in #V# geldt\[\begin{array}{rcl}\left((aL+bN)^\star(\varphi)\right)(\vec{v}) &=&\varphi((aL+bN)(\vec{v}) )\\ &=& \varphi(aL(\vec{v}) + b N(\vec{v}) )\\ &=& a (\varphi(L(\vec{v})) + b (\varphi(N(\vec{v})) \\ &=& aL^\star( \varphi)(\vec{v}) +bN^\star(\varphi)(\vec{v})\\ &=&\left( (aL^\star)(\varphi)+(bN^\star)(\varphi)\right)(\vec{v})\\ &=&\left( (aL^\star+bN^\star)(\varphi)\right)(\vec{v})\end{array}\]Omdat #\vec{v}# willekeurig gekozen is, concluderen we dat \((aL+bN)^\star(\varphi) = (aL^\star+bN^\star)(\varphi)\) geldt voor alle #\varphi# in #W^\star#, zodat \((aL+bN)^\star = aL^\star+bN^\star\). Dit bewijst lineariteit van de afbeelding die aan #L# de duale afbeelding #L^\star# toewijst.
2. Voor #L# en #M# als gegeven, willekeurige #\varphi# in #W^\star# en #\vec{u}# in #U# geldt \[\begin{array}{rcl}\left((L\,M)^\star(\varphi)\right)(\vec{u}) &=& \varphi((L\,M)(\vec{u}))\\ &=& \varphi(L(M(\vec{u}) ))\\ &=& \left(L^\star(\varphi)\right)(M(\vec{u}))\\ &=&\left(M^\star \left(L^\star(\varphi)\right)\right)(\vec{u})\\ &=&\left(\left(M^\star \,L^\star\right)(\varphi)\right)(\vec{u})\end{array}\]We concluderen dat \((L\,M)^\star(\varphi) = \left(M^\star \,L^\star\right)(\varphi)\) voor alle #\varphi# in #W^\star#, zodat \((L\,M)^\star= M^\star L^\star\).
Als we de tweede wet toepassen op de lineaire afbeeldingen #L_A# en #L_B# voor matrices #A# en #B# met geschikte afmetingen, dan staat hier in termen van matrices \[(A\,B)^\top = B^\top \, A^\top \]Dit is bekend van de Regels voor matrixvermenigvuldiging.
Eerder hebben we gezien dat een elementaire rijbewerking op een matrix #A# overeenkomt met linksvermenigvuldiging met een elementaire matrix #E#. In dit geval is #E^\top# ook een elementaire matrix en geldt voor #B = A^\top#
\[ B\,E^\top =\left(E\,B^\top\right)^\top \]
We kunnen dit interpreteren voor een willekeurige matrix #B# als: een elementaire kolombewerking (namelijk vermenigvuldiging van rechts met #E^\top#) staat gelijk aan de getransponeerde van een elementaire rijbewerking (namelijk vermenigvuldiging van links met #E#) op de getransponeerde van #B#.
Bijvoorbeeld: hieronder wordt #4# maal de eerste kolom van de tweede afgetrokken door vier maal de eerste rij af te trekken van de tweede rij in de getransponeerde matrix en het resultaat nogmaals te transponeren:
\[\matrix{1&4\\ 2&8\\ 3 & 12}\,\matrix{1&-4\\ 0&1} =\left(\matrix{1&0\\ -4&1}\,\matrix{1&2&3\\ 4&8&12}\right)^\top = \matrix{1&0\\ 2&0\\ 3 & 0}\]
Laat #P# de vectorruimte zijn van alle veeltermen in #x# en schrijf #p(x)=x^3-3\cdot x^2+2\cdot x-5#. Met #L# geven we de vermenigvuldiging met #p(x)# op #P# aan. Dit is een lineaire afbeelding #P\to P#. Met #s# geven we de lineaire functionaal aan bepaald door substitutie van #x# door #1#; in formule: #s(f(x)) = f(1)#.
Er is een getal #g# zodanig dat #L^\star(s) = g\cdot s#. Welke getal is dat?
#g = # #-5#
Dit volgt uit de berekening
\[\begin{array}{rcl} \left(L^\star(s)\right)(f(x)) & = & s(L(f(x))\\ & = & s((x^3-3\cdot x^2+2\cdot x-5)\cdot (f(x)))\\ & = & ((1)^3-3\cdot (1)^2+2\cdot (1)-5)\cdot (f(1)))\\ & = & (-5)\cdot s (f(x)))\\ & = & \left(-5 \,s \right)(f(x))\end{array}\]
We concluderen dat \( L^\star(s) = -5 s\). Het antwoord is dus #-5#.