Eerder hebben we gezien dat een lineaire afbeelding #L:V\to W# tussen twee eindigdimensionale vectorruimten #V# en #W# vastgelegd is als we de beelden onder #L# van een basis #\alpha# voor #V# kennen. Nu laten we zien dat de afbeelding bepaald wordt door een matrix als we ook een basis #\beta# voor #W# kennen.
Bekijk daartoe het diagram, waarbij #n=\dim{V}# en #m=\dim{W}#. \[\begin{array}{ccccc}
V&& \overset{L}{\longrightarrow}&& W\\\downarrow \alpha&&&&\downarrow\beta\\ \mathbb{R}^n &&\overset{\beta L \alpha^{-1}}{\longrightarrow}&&\mathbb{R}^m\\
\end{array}\]
Laat #m# en #n# natuurlijke getallen zijn, #V# en #W# vectorruimten van dimensie #m#, respectievelijk #m#, en laat #\alpha# een basis voor #V# en #\beta# een basis voor #W# zijn.
Bekijk een lineaire afbeelding # L :V\rightarrow W#. De samengestelde afbeelding #\beta L \alpha^{-1}:\mathbb{R}^n\rightarrow\mathbb{R}^m# brengt #\alpha(\vec{x})# naar #\beta(L\vec{x})#. Dit is een lineaire afbeelding van #\mathbb{R}^n# naar #\mathbb{R}^m# en wordt dus bepaald door een matrix waarvan de kolommen zijn
\[
(\beta L \alpha^{-1})(\vec{e}_i)=\beta ( L (\vec{a}_i))\phantom{xxx} \text{ voor }\phantom{x}i=1,\ldots ,n
\] De #i#-de kolom van deze matrix bestaat uit de #\beta#-coördinaten van het beeld #L\vec{a}_i#.
Deze matrix geven we aan met #{}_\beta L_\alpha# en noemen we de matrix van # L # ten opzichte van de bases #\alpha# en #\beta#.
Als #V=W# en #\beta=\alpha#, dan noteren we de bijbehorende matrix ook wel door #L_\alpha#; we spreken van de matrix van # L# ten opzichte van de basis #\alpha#.
Met iedere vector # \vec{x}\in V# correspondeert eenduidig een rijtje coördinaten #\alpha(\vec{x})# en met de beeldvector #L \vec{x}# een rijtje coördinaten #\beta(L\vec{x})#.
Met de matrix #{}_\beta L_\alpha# hebben we de lineaire afbeelding #L# op het niveau van coördinaten in handen: om bijvoorbeeld het beeld van een vector #\vec{a}\in V# te vinden, zoeken we de coördinaatvector #\alpha(\vec{a})# van #\vec{a}# op en vermenigvuldigen deze met #{}_\beta L_\alpha#; dit levert de coördinaatvector van #L\vec{a}# op; resteert nog het omzetten van deze coördinaatvector naar de bijbehorende vector uit #W#.
Aan de situatie waarin #V=W# en #\alpha=\beta# zullen we de meeste aandacht besteden.
Als # L : V=\mathbb{R}^n\rightarrow W=\mathbb{R}^m# een lineaire afbeelding is, en we de standaardbases #\varepsilon# voor deze ruimten gebruiken (in deze notatie maken ons niet druk over het feit dat #\varepsilon# lengte #n# heeft in #V# en lengte #m# in #W#), dan is de matrix #L _{\varepsilon}# ten opzichte van deze bases niets anders dan de matrix van #L# zoals gedefinieerd in De matrix van een lineaire afbeelding in de coördinaatruimte. Dit komt omdat de coördinatiseringen van #V# en van #W# beide de identieke afbeelding zijn.
Uit de matrix van een lineaire afbeelding kunnen we aflezen wat het beeld is van een vector. Als bijvoorbeeld #V# tweedimensionaal is met basis #\alpha =\basis{\vec{a}, \vec{b}}# en de lineaire afbeelding # A :V\rightarrow V# heeft matrix
\[
A_{\alpha}=
\left(\begin{array}{cc}
1 & 4 \\ -2 & 3
\end{array}\right)
\] ten opzichte van #\alpha#, dan lezen we uit de matrix af dat # A \vec{a} =1\cdot \vec{a} -2\cdot \vec{b}# (eerste kolom) en # A \vec{b} = 4\cdot \vec{a} + 3\cdot \vec{b}# (tweede kolom). Om het beeld van #\lambda \vec{a} + \mu \vec{b}# te bepalen vermenigvuldig je #A_{\alpha}# met #\rv{\lambda ,\mu}#:
\[
\left(\begin{array}{cc}
1 & 4 \\ -2 & 3
\end{array}\right)
\left(\begin{array}{c} \lambda \\ \mu \end{array}\right)=
\left(\begin{array}{c}
\lambda + 4\mu \\ -2\lambda +3\mu
\end{array}\right)
\] en concludeer je dat het beeld gelijk is aan #(\lambda + 4\mu) \vec{a} + (-2\lambda +3\mu)\vec{b}#.
Bekijk de vectorruimte #P_2# van reële veeltermen van graad hoogstens #2# in #x# en de lineaire afbeelding #D:P_2\rightarrow P_2# gedefinieerd door #Dp=p'#, de afgeleide van #p# naar #x#. Neem in #P_2# de basis #\alpha=\basis{1,x,x^2}#. De afgeleiden van de basisvectoren zijn:
\[
\begin{array}{r l}
0 = & 0\cdot 1+0\cdot x+0\cdot x^2\\
1 = & 1\cdot 1+0\cdot x+0\cdot x^2\\
2x = & 0\cdot 1+2\cdot x+0\cdot x^2
\end{array}
\] De matrix #D_\alpha# is dus
\[
D_\alpha =\left(\,\begin{array}{rrr}
0 & 1 & 0\\
0 & 0 & 2\\
0 & 0 & 0
\end{array}\,\right)
\] Ter illustratie nemen we de veelterm #p(x)=2x^2-3x+5#. De coördinaatvector van #p# ten opzichte van #\alpha# is #\rv{5,-3,2}# en
\[
D_\alpha \left(\,\begin{array}{r}
5\\ -\,3 \\ 2
\end{array}\,\right)\ =\ \left(\,\begin{array}{rrr}
0 & 1 & 0\\
0 & 0 & 2\\
0 & 0 & 0
\end{array}\,\right)\ \left(\,\begin{array}{r}
5 \\ -\,3 \\ 2
\end{array}\,\right)\ =\ \left(\,\begin{array}{r}
-\,3\\ 4\\ 0
\end{array}\,\right)
\]#\rv{-3,4,0}# is de coördinaatvector van #4x-3# en dat is inderdaad de afgeleide van #p#.
We werken in #\mathbb{R}^2# met het standaardinproduct. We bepalen de matrix #P_\varepsilon# ten opzichte van de standaardbasis #\varepsilon# van de loodrechte projectie #{P_\ell}# op de rechte #\ell# met vergelijking #2x-3y=0#. Rechtstreeks de coördinaten van #{P_\ell}\vec{e}_1# en #{P_\ell} \vec{e}_2# bepalen is wat lastig. Daarom beschouwen we eerst een basis #\alpha =\basis{\vec{a}_1,\vec{a}_2}# ten opzichte waarvan #{P_\ell}# eenvoudig te beschrijven is. We nemen #\vec{a}_1=\rv{3,2}\in\ell# en #\vec{a}_2=\rv{2,-3}\perp\ell#. Dan is #{P_\ell}\vec{a}_1=\vec{a}_1 = 1\cdot \vec{a}_1 +0\cdot \vec{a}_2# en # {P_\ell}\vec{a}_2=\vec{0}=0\cdot \vec{a}_1 +0\cdot \vec{a}_2# zodat de matrix #P_\alpha# is: \[ P_\alpha=\left(\,\begin{array}{rr} 1 & 0 \\ 0 & 0 \end{array}\,\right) \] De overgangsmatrices zijn \[ {}_\varepsilon I_\alpha =\left(\,\begin{array}{rr} 3 & 2\\ 2 & -\,3 \end{array}\,\right) \quad \hbox{en}\quad {}_\alpha I_\varepsilon ={}_\varepsilon I_\alpha^{-1}=\frac{1}{13}\left(\,\begin{array}{rr} 3 & 2\\ 2 & -\,3 \end{array}\,\right)\] zodat \[ P_\varepsilon ={}_\varepsilon I_\alpha\ P_\alpha\ {}_\alpha I_\varepsilon =\frac{1}{13}\left(\,\begin{array}{rr} 9 & 6 \\ 6 & 4 \end{array}\,\right) \] Dit resultaat kunnen we ook op een andere manier vinden. De gegevens #{P_\ell}\vec{a}_1=\vec{a}_1# en #{P_\ell} \vec{a}_2=\vec{0}# zetten we in #\varepsilon#-coördinaten in rijen in een matrix \[ \left(\,\begin{array}{rr} 3 & 2\\ 2 & -3 \end{array}\,\left|\,\begin{array}{rr} 3 & 2\\ 0 & 0 \end{array}\,\right.\right) \] waaruit na vegen volgt \[ \left(\,\begin{array}{rr} 1 & 0\\ 0 & 1 \end{array}\,\left|\,\begin{array}{rr} \frac{9}{13} & \frac{6}{13}\\\frac{6}{13} & \frac{4}{13} \end{array}\,\right.\right) \] zodat we inderdaad hetzelfde resultaat vinden als hierboven:\[ P_\varepsilon=\frac{1}{13}\left(\,\begin{array}{rr} 9 & 6\\ 6 & 4 \end{array}\,\right) \]
Laat #\alpha = \basis{1,{{1}\over{x}},\ln \left(x\right)}# en bekijk de deelruimte #V# van de vectorruimte van reële functies opgespannen door #\alpha#. Dan is #\alpha # een basis voor #V#.
Laat ook #\beta = \basis{x\cdot \ln \left(x\right),\ln \left(x\right),x-1}# en bekijk de deelruimte #W# van de vectorruimte van reële functies opgespannen door #\beta#. Dan is #\beta # een basis voor #W#.
De afbeelding #A:V\to W# gegeven door #\left(A\,f\right)(x)=\int_{1}^x f(t)\,\dd t# is lineair. Bepaal de matrix ervan met betrekking tot #\alpha# en #\beta#.
\({}_\beta A_{\alpha} =\) \( \matrix{0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & -1 \\ }\)
Partiële integratie geeft de beelden onder #A# van de drie vectoren van #\alpha#:
\[\begin{array}{rcl}
A\left(1\right) &=& x-1\\&=&{0}\cdot\color{blue}{(x\cdot \ln \left(x\right))}+0\cdot\color{blue}{(\ln \left(x\right))}+1\cdot\color{blue}{(x-1)}\\
A\left({{1}\over{x}}\right) &=&\ln \left(x\right)\\&=&{0}\cdot\color{blue}{(x\cdot \ln \left(x\right))}+1\cdot\color{blue}{(\ln \left(x\right))}+0\cdot\color{blue}{(x-1)}\\
A\left(\ln \left(x\right)\right) &=&x\cdot \ln \left(x\right)-x+1\\&=&{1}\cdot\color{blue}{(x\cdot \ln \left(x\right))}+0\cdot\color{blue}{(\ln \left(x\right))}-1\cdot\color{blue}{(x-1)}\end{array}
\]
Hierbij zijn de elementen van #\beta# #\color{blue}{\text{blauw}}# geschreven. Door de coördinaten met betrekking tot #\beta# af te lezen vinden we
\[{}_\beta A_\alpha = \matrix{0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & -1 \\ }\]