We hebben eerder kennis gemaakt met de lineaire afbeelding #L_A: \mathbb{R}^n\rightarrow \mathbb{R}^m# bepaald door een #(m\times n)#-matrix #A#. We laten hier zien dat elke lineaire afbeelding tussen twee coördinaatruimten deze vorm heeft.
Merk op, om in te zien hoe dit kan, dat de kolommen van een reële #(m\times n)#-matrix #A# de beelden zijn onder #L_ A # van de vectoren van de standaardbasis van #\mathbb{R}^n#.
Laat #m# en #n# natuurlijke getallen zijn en laat #\varepsilon=\basis{\vec{e}_1,\ldots ,\vec{e}_n}# de standaardbasis voor #\mathbb{R}^n# zijn.
Elke lineaire afbeelding # L :\mathbb{R}^n\rightarrow\mathbb{R}^m# is bepaald door de matrix #A = L_{\varepsilon}# waarvan de kolommen \[{ L (\vec{e}_1) ,\ldots , L (\vec{e}_n)}\] zijn.
De matrix #L_{\varepsilon}# heet de matrix van de lineaire afbeelding #L#.
Schrijf een vector #\vec{x}\in \mathbb{R}^n# uit als lineaire combinatie van de standaardbasisvectoren: #x_1 \vec{e}_1 +\cdots + x_n\vec{e}_n#. Dan geldt vanwege de lineariteit van # L # \[ L(\vec{x})=x_1\cdot L (\vec{e}_1) +\cdots +x_n\cdot L (\vec{e}_n)\]Verzamel de #n# vectoren # L( \vec{e}_1) ,\ldots , L( \vec{e}_n)# als kolommen in een #(m\times n)#-matrix #A = L_{\varepsilon}#. Dan is \[L(\vec{x}) =A\vec{x}\] waarbij het rechter lid het matrixproduct van #A# en #\vec{x}# voorstelt.
Het beeld van de vector #\vec{x}# onder # L # is te berekenen als het matrixproduct #L_{\varepsilon}\vec{x}#.
Bij elke lineaire afbeelding #L:V\to W# en elke basis #\alpha# van #V# en basis #\beta# van #W#, zullen we later aangeven hoe je een matrix kunt vinden die de afbeelding beschrijft.
We zullen dan #{}_\beta L_{\alpha}# schrijven voor de matrix en #L_{\alpha}# als #\beta = \alpha#. In de hier gebruikte notatie #L_\varepsilon# komt de standaardbasis voor van #V#. Als #V# en #W# beide coördinaatruimten zijn, dan gebruiken we voor het gemak ook wel #\varepsilon# voor #W#; zodoende lijkt dus de notatie #L_\varepsilon# op de afkorting voor #{}_\varepsilon L_\varepsilon#.
Laat #\vec{a}# een vector in een inproductruimte #V# zijn. Omdat het inproduct #\dotprod{\vec{x}}{ \vec{y}}# lineair in #\vec{y}# is, is de afbeelding die aan #\vec{y}# het inproduct #\dotprod{\vec{a}}{\vec{y}}# toevoegt, een lineaire afbeelding #V\to\mathbb{R}#. In het geval #V = \mathbb{R}^n# met standaard inproduct valt #\dotprod{\vec{a}}{\vec{y}}# samen met het matrixproduct #A\,\vec{y}#, waarbij #A# de #(1\times n)#-matrix is met als enige rij de coördinaatvector #\vec{a}=\rv{a_1,\ldots,a_n}#, want dan geldt
\[\dotprod{\vec{a}}{\vec{y}}=a_1\cdot y_1+\cdots+a_n\cdot y_ n = \matrix{a_1&\cdots & a_n}\, \matrix{y_1\\ \vdots\\ y_n} = A\, \vec{y}\]
We hebben dus een nieuwe rol voor matrices gevonden.
Laat #L:\mathbb{R}^2\to\mathbb{R}^2# de lineaire afbeelding zijn gedefinieerd door
\[L\left(\rv{x,y}\right)=\rv{-3\cdot x+2\cdot y, 8\cdot x+7\cdot y}\]
Bepaal de matrix #L_{\varepsilon}# van #L# ten opzichte van de standaardbasis.
\(L_\varepsilon =\) \(\matrix{-3& 2\\ 8 & 7}\)
Inderdaad geldt:\[\begin{array}{rcl} L(\vec{e}_1) &=& \rv{-3\cdot 1 + 2\cdot 0,8\cdot 1 + 7\cdot 0} = \rv{-3,8}\\
L(\vec{e}_2) &=&\rv{-3\cdot 0 + 2\cdot 1,8\cdot 0 + 7\cdot 1} =\rv{2,7}\end{array}\] Vanwege de stelling
Lineaire afbeeldingen in coördinaatruimten bepaald door matrices zijn deze beeldvectoren, opgevat als kolomvectoren, de kolommen van #L_\varepsilon#, zodat
\[L_\varepsilon = \matrix{-3& 2\\ 8 & 7}\]