In het hoofdstuk Lineaire afbeeldingen hebben we eigenschappen bestudeerd van een lineaire afbeelding #V\rightarrow V# waarbij #V# een vectorruimte is. Als #V# een reële inproductruimte is, dan zijn de lineaire afbeeldingen #V\to V# van belang die het reële inproduct behouden. We zullen zien dat dit precies de lineaire afbeeldingen van een inproductruimte naar zichzelf zijn die de lengte behouden.
Laat #V# een reële inproductruimte zijn. Een lineaire afbeelding #L :V\rightarrow V# heet orthogonaal als #\norm{L(\vec{x})}=\norm{\vec{x}}# voor elke #\vec{x}\in V#.
Anders gezegd: een lineaire afbeelding #L :V\rightarrow V# is orthogonaal als de lengte invariant is onder #L#. We zeggen dan ook wel dat #L# de lengte behoudt.
Vanwege de lineariteit van de afbeelding is #L# dan en slechts dan orthogonaal als de afstand invariant is onder #L#, dat wil zeggen: als #\norm{L(\vec{x})-L(\vec{y})}=\norm{\vec{x}-\vec{y}}# voor alle #\vec{x},\vec{y}\in V#.
De identieke afbeelding #I_V:V\rightarrow V# (ook wel kortweg met #I# aangeduid) voldoet aan #{ I_V}(\vec{x})=\vec{x}# voor elke vector #\vec{x}#. In het bijzonder geldt #\norm{I_V(\vec{x})} =\norm{\vec{x}}#. De identieke afbeelding is dus orthogonaal.
Ook #-{ I_V}# is orthogonaal.
Voor #\lambda \neq \pm 1# is #\lambda \cdot I_V # niet orthogonaal.
We onderzoeken de orthogonale afbeeldingen #V\rightarrow V# in het geval #\dim {V}=1#. De enige lineaire afbeeldingen in een vectorruimte van dimensie #1# zijn scalaire vermenigvuldigingen, dat wil zeggen: vermenigvuldigingen met een getal #\lambda#. De lengte is dan en slechts dan invariant onder de lineaire afbeelding #L(\vec{x}) = \lambda\cdot \vec{x}# op #V# als #\lambda =1# of #\lambda =-1#.
- Voor #\lambda =1# vinden we #L=I#, een direct orthogonale afbeelding.
- Voor #\lambda =-1# vinden we de afbeelding #L=-I_V#; dit is de spiegeling om de oorsprong.
De lineaire afbeelding #L: \mathbb{R}^2 \rightarrow \mathbb{R}^2# gegeven door
\[
L(\rv{x,y})=\frac{1}{5}\rv{3x+4y,-4x+3y}
\]is orthogonaal omdat
\[
\begin{array}{rcl}
\norm{L(\rv{x,y})}^2 & =&\displaystyle\frac{1}{25}((3x+4y)^2 + (-4x+3y)^2)\\\\
&=&\dfrac{1}{25}(9x^2 +16y^2 + 24xy + 16x^2 +9y^2 -24xy)\\\\
& =& x^2 +y^2\\\\ &=&\norm{\,\rv{x,y}\,}^2
\end{array}
\]Dit volstaat om te bewijzen dat \(\norm{L(\rv{x,y})}=\norm{\,\rv{x,y}\,}\), want de norm is nooit negatief.
Laat #\vec{a}# een vector van lengte #1# zijn in de inproductruimte #V#. We bekijken de loodrechte spiegeling #S_{\vec{a}}:V\rightarrow V# om de deelruimte #\{\vec{a}\}^{\perp}#. Deze afbeelding wordt gegeven door het voorschrift \[S_{\vec{a}}(\vec{x})=\vec{x}-2(\dotprod{\vec{x}}{\vec{a}})\cdot \vec{a}\] We komen tot dit voorschrift door de volgende redenering. Laat #\vec{x}# een willekeurige vector van #V# zijn. Beweeg vanuit #\vec{x}# in de richting van #\vec{a}# tot je in #\{\vec{a}\}^{\perp}# belandt; met andere woorden: tot het snijpunt van de rechte #\vec{x}+\lambda \cdot \vec{a}# met #\{\vec{a}\}^{\perp}#. Dit levert #\lambda =-(\dotprod{\vec{x}}{\vec{a}} )# en we zijn dus bij de vector #\vec{x}-(\dotprod{\vec{x}}{\vec{a}} )\, \vec{a}#. Om het beeld van van #\vec{x}# onder de spiegeling te vinden moeten we twee keer de vector #(\dotprod{\vec{x}}{\vec{a} })\, \vec{a}# van #\vec{x}# aftrekken.
Een loodrechte spiegeling behoudt de lengte van een vector. Dit meetkundig bekende feit volgt onmiddellijk uit de volgende uitwerking van het kwadraat van de lengte van #S_{\vec{a}} (\vec{x})#:
\[
\begin{array}{rcl} \norm{S_{\vec{a}} ( \vec{x})}^2 &=&
\dotprod{(\vec{x}-2(\dotprod{\vec{x}}{\vec{a}})\vec{a})}{(\vec{x}-2(\dotprod{\vec{x}}{\vec{a}})\vec{a})}\\ & =&(\dotprod{\vec{x}}{\vec{x}})-
4(\dotprod{\vec{x}}{\vec{a}})\cdot(\dotprod{\vec{x}}{\vec{a}}) +4(\dotprod{\vec{x}}{\vec{a}})^2 (\dotprod{\vec{a}}{\vec{a}})\\
& =&\dotprod{\vec{x}}{\vec{x}}\\ & =&\norm{\vec{x}}^2 \end{array}
\] Voor een willekeurige vector #\vec{v}# ongelijk aan #\vec{0}# schrijven we #S_{\vec{v}} = S_{ \vec{a}}#, waarbij #\vec{a}# de genormaliseerde vector #\frac{1}{\norm{\vec{v}}}\vec{v}# is. Het voorschrift voor deze afbeelding is
\[S_{\vec{v}}(\vec{x})=\vec{x}-2\dfrac{\dotprod{\vec{x}}{\vec{v}}}{\dotprod{\vec{v}}{\vec{v}}}\cdot \vec{v}\]
Als #\dim{V} \gt 1# en als #P: V\to V# de
loodrechte projectie is op de rechte #\linspan{\vec{a}}# door de oorsprong die door een vector #\vec{a}# gaat, dan is #P# geen orthogonale afbeelding. Kies, om dit in te zien, een vector #\vec{b}# loodrecht op #\vec{a}# die niet gelijk is aan de nulvector (dit is mogelijk omdat #\dim{V} \gt 1#). Dan is #{ P}(\vec{b} )=\vec{0}#, zodat #0=\norm{P(\vec{b})}\lt \norm{\vec{b}}#.
De translatie op een vectorruimte #V# over een vector #\vec{a}# van #V# is de afbeelding #T_{\vec{a}}# gegeven door \(T_{\vec{a}}(\vec{x}) = \vec{x}+\vec{a}\). De afbeelding is alleen de identieke afbeelding als #\vec{a} = \vec{0}#. Als #\vec{a}# ongelijk aan de nulvector is, dan is translatie over #\vec{a}# niet lineair (het beeld van #\vec{0}# onder #T_{\vec{a}}# is immers #\vec{a}#, dus ongelijk aan de nulvector). Maar als #V# een inproductruimte is, dan laat \( T_{\vec{a}}\) wel de afstand invariant. Voor elk tweetal vectoren #\vec{x}#, #\vec{y}# van #V# geldt immers \[\norm{T_{\vec{a}}(\vec{x})-T_{\vec{a}}(\vec{y})}=\norm{ (\vec{x}+\vec{a})-(\vec{y}+\vec{a})}=\norm{\vec{x}-\vec{y}}\] Er bestaan dus niet-lineaire afbeeldingen #V\to V# die afstand behouden.
Translatie over \({\vec{a}}\) behoudt ook de lengte niet als #\vec{a} \ne\vec{0}#. Dit kunnen we zien in het eenvoudige voorbeeld met # \vec{x}=0#. Dan geldt \[\norm{T_{\vec{a}}(\vec{x})}=\norm{\vec{a}}\neq 0=\norm{\vec{0}}=\norm{\vec{x}}\]
Later zullen we kijken naar afbeeldingen van de algemenere vorm #T:V\to W#, die afstand behouden. Hier hoeven #V# en #W#, in tegenstelling tot het geval van orthogonale afbeeldingen, niet hetzelfde te zijn. Zo'n afbeelding heet een isometrie. De afbeelding #L:\mathbb{R}^2\to\mathbb{R}^3# gegeven door #L(\rv{x,y}) = \rv{x,y,0}# is een voorbeeld.
Orthogonaliteit voor een lineaire afbeelding kan ook vastgesteld worden aan de hand van het inproduct:
Laat #V# een inproductruimte zijn. Een lineaire afbeelding #L: V\to V# is dan en slechts dan orthogonaal als #\dotprod{L(\vec{x})}{L(\vec{y})} = \dotprod{\vec{x}}{\vec{y}} # voor alle vectoren #\vec{x}# en #\vec{y}# van #V#.
Als de lineaire afbeelding #L:V\to V# het inproduct behoudt (dat wil zeggen dat voor iedere #\vec{x}# en #\vec{y}# in #V# geldt #\dotprod{L(\vec{x})}{L(\vec{y})} = \dotprod{\vec{x}}{\vec{y}}#), dan behoudt #L# ook de lengte wegens de volgende gelijkheden \[\norm{\vec{x}} = \sqrt{\dotprod{\vec{x}}{\vec{x}}}=\sqrt{\dotprod{L(\vec{x})}{L(\vec{x})}}=\norm{L(\vec{x})}\]
Dat behoud van inproduct volgt uit behoud van lengte is iets lastiger te bewijzen. We beroepen ons hiervoor op de polarisatieformule, die voor willekeurige vectoren #\vec{a}# en #\vec{b}# in #V# luidt \[\dotprod{\vec{a}}{\vec{b}}=\frac{1}{2}\left(\norm{\vec{a} + \vec{b}}^2 -\norm{\vec{a}}^2 - \norm{\vec{b}}^2\right)\]Het behoud van inproduct kan nu als volgt afgeleid worden.
\[\begin{array}{rcl}\dotprod{L(\vec{x})}{L(\vec{y})}&=&\dfrac{1}{2}\left(\norm{L(\vec{x})+L(\vec{y})}^2-\norm{L(\vec{x})}^2-\norm{L(\vec{y})}^2\right) \\&&\phantom{xx}\color{blue}{\text{polarisatieformule}}\\&=&\dfrac{1}{2}\left(\norm{L(\vec{x}+\vec{y})}^2-\norm{L(\vec{x})}^2-\norm{ L(\vec{y})}^2\right)\\&&\phantom{xx}\color{blue}{\text{lineariteit van }L}\\&=&\dfrac{1}{2}\left(\norm{ \vec{x}+\vec{y}}^2-\norm{\vec{x}}^2-\norm{\vec{y}}^2\right)\\&&\phantom{xx}\color{blue}{\text{lengte blijft behouden}}\\&=&\dotprod{\vec{x}}{\vec{y}}\\&&\phantom{xx}\color{blue}{\text{polarisatieformule}}\end{array}\]
De translatie op een inproductruimte #V# over een vector #\vec{a}# ongelijk de nulvector van #V# is een afbeelding die het inproduct niet behoudt: de afbeelding #T_{\vec{a}}# gegeven door \(T_{\vec{a}}(\vec{x}) = \vec{x}+\vec{a}\) voldoet aan \[\dotprod{T_{\vec{a}}(\vec{0})}{T_{\vec{a}}(\vec{0})} = \dotprod{\vec{a}}{\vec{a}} \gt 0 = \dotprod{\vec{0}}{\vec{0}} \]
In het hoofdstuk Inproductruimten introduceerden we het begrip lengte aan de hand van het inproduct. Om in lijn te blijven met die opzet, hadden we er ook voor kunnen kiezen om een orthogonale afbeelding te definiëren als een afbeelding die het inproduct behoudt. Deze karakterisatie vertelt ons dat deze twee definities equivalent zijn. In toepassingen is het handiger om te werken met de definitie waarin de lengte behouden wordt.
We vatten # \mathbb{R}^3# op als de inproductruimte met het standaardinproduct.
Bestaat er een reëel getal #a# zó dat er een orthogonale afbeelding #L :\mathbb{R}^3\to \mathbb{R}^3# is met \(L (\rv{1,0,0})=\frac{1}{18}\,\rv{a, -5, -20 }\)?
Nee
De afbeelding #L# is lineair, en is dus dan en slechts dan orthogonaal als #\norm{L(\vec{x})}=\left\lVert \vec{x}\right\rVert # voor alle vectoren #\vec{x}#. In het bijzonder moet dus gelden: #\norm{L(\rv{1,0,0})}=\left\lVert\rv{1,0,0}\right\rVert #. Dit leidt tot de volgende vergelijking met onbekende #a#, die we vervolgens herschrijven:
\[\begin{array}{rcl}\norm{\dfrac{1}{18}\,\rv{a, -5, -20}}&=&1\\ &&\phantom{xx}\color{blue}{\text{afbeeldingsvoorschrift voor }L\text{ ingevuld}}\\\dfrac{1}{18}\cdot\norm{\rv{a, -5, -20}}&=&1\\
&&\phantom{xx}\color{blue}{\text{multiplicativiteit van de norm}}\\\norm{\rv{a, -5, -20 }}&=&18\\ &&\phantom{xx}\color{blue}{\text{vermenigvuldigd met }18}\\a^2+(-5)^2+(-20)^2&=&{18}^2\\ &&\phantom{xx}\color{blue}{\text{lengte berekend en aan beide zijden gekwadrateerd}}\\
a^2&=&-101\\ &&\phantom{xx}\color{blue}{\text{alle constante termen naar rechts gebracht}}\\
\text{geen oplossing}&&\\ &&\phantom{xx}\color{blue}{\text{kwadraat is nooit negatief}}
\end{array}\] Het antwoord luidt dus Nee.