Symmetrische afbeeldingen kunnen gebruikt worden om kwadratische vormen te definiëren. Een kwadratische vorm op een vectorruimte #V# is een homogene tweedegraads veelterm in de coördinaten van een vector ten opzichte van een vast gekozen basis van #V#. We beginnen met een meer intrinsieke definitie voor het geval van een reële vectorruimte. Hierbij gebruiken we de term polarisatie voor het rechter lid van de polarisatieformule van een inproduct.
Een kwadratische vorm op een vectorruimte #V# is een functie #q:V\to\mathbb{R}# met de volgende twee eigenschappen:
- homogeniteit: Voor elke scalar #\lambda# en elke vector #\vec{x}# van #V# geldt \(q(\lambda\cdot \vec{x}) = \lambda^2\cdot q(\vec{x})\).
- bilineariteit van polarisatie: De reëelwaardige afbeelding #f_q# op paren vectoren uit #V# gedefinieerd door \(f_q(\vec{x},\vec{y}) =\frac12\left( q(\vec{x}+\vec{y}) - q(\vec{x})-q(\vec{y})\right)\) is bilineair.
De bilineaire afbeelding #f_q# is symmetrisch en uniek bepaald door #q#; ze heet de bilineaire vorm van #q#.
Als #g# een symmetrische bilineaire vorm is op #V#, dan is #r(\vec{x}) =g(\vec{x},\vec{x})# een kwadratische vorm. Elke kwadratische vorm kan zo verkregen worden. Bovendien is #g# de bilineaire vorm van #r#. We noemen #r# de kwadratische vorm bepaald door #g#.
Stel dat #q# een kwadratische vorm op een vectorruimte #V# is. Dan geldt voor de bijbehorende bilineaire vorm #f_q#:
\[\begin{array}{rcl}f_q( \vec{x} ,\vec{x} )&=&\frac12\left(q( 2\vec{x}) -2q(\vec{x} )\right)\\&&\phantom{xx}\color{blue}{\text{definitie }f_q( \vec{x} ,\vec{y} )\text{ met }\vec{y}=\vec{x}}\\&=&\frac12\left(4q(\vec{x}) - 2q(\vec{x} )\right)\\&&\phantom{xx}\color{blue}{q(\lambda\vec{x}) = \lambda^2q(\vec{x})}\\&=& q(\vec{x} )\\&&\phantom{xx}\color{blue}{\text{vereenvoudigd}}\end{array}\]
Dit laat zien dat #q(\vec{x}) = f_q(\vec{x},\vec{x})# uniek bepaald is door #f_q#.
Laat nu #g# een symmetrische bilineaire vorm op #V# zijn. Dan is #r(\vec{x}) =g(\vec{x},\vec{x})# vanwege de bilineariteit van #g# homogeen:
\[r(\lambda\vec{x})= g(\lambda\vec{x},\lambda\vec{x})=\lambda^2 g(\vec{x},\vec{x})=\lambda^2 r(\vec{x})\]
De polarisatie van #r# is bilineair vanwege
\[\begin{array}{rcl}f_r(\vec{x},\vec{y}) &=&\frac12\left( r(\vec{x}+\vec{y}) - r(\vec{x})-r(\vec{y})\right)\\&&\phantom{xxx}\color{blue}{\text{definitie }f_r}\\ &=&\frac12\left( g(\vec{x}+\vec{y},\vec{x}+\vec{y}) - g(\vec{x},\vec{x})-g(\vec{y},\vec{y})\right)\\&&\phantom{xxx}\color{blue}{\text{definitie }r}\\&=&\frac12\left(g(\vec{x},\vec{x})+g(\vec{x},\vec{y})+g(\vec{y},\vec{x})+g(\vec{y},\vec{y})-g(\vec{x},\vec{x})-g(\vec{y},\vec{y})\right)\\&&\phantom{xxx}\color{blue}{\text{bilineariteit }g}\\&=&\frac12\left(g(\vec{x},\vec{y})+g(\vec{y},\vec{x})\right)\\&&\phantom{xxx}\color{blue}{\text{vereenvoudigd}}\\&=&g(\vec{x},\vec{y})\\&&\phantom{xxx}\color{blue}{\text{symmetrie }g}\end{array}\]Hiermee is aangetoond dat #r# een kwadratische vorm is en dat de bijbehorende bilineaire vorm gelijk is aan #g#.
Volgens de eerste uitspraak kan elke kwadratische vorm #q# met bilineaire vorm #f_q# verkregen worden als de kwadratische vorm bepaald door #f_q#.
Voor elke kwadratische vorm #q# geldt #q(\vec{0}) = 0#. Dit volgt uit de homogeniteit van #q# met #\lambda=0#.
Laat #V# de inproductruimte #\mathbb{R}# zijn. Elke bilineaire vorm op #V# heeft de vorm \[g(x,y) = a\cdot x\cdot y\] voor een constant reëel getal #a#. Schrijf, om dit in te zien, #a = g(1,1)#. Dan volgt uit de bilineariteit van de vorm \(g(x,y) = x\cdot g(1,1)\cdot y = a\cdot x\cdot y\). In het bijzonder is elke bilineaire vorm op een #1#-dimensionale vectorruimte symmetrisch.
Laat #q# een kwadratische vorm op #V# zijn. Dan is er dus een constante #a#, zodat # q(x)= a \cdot x^2# voor elk reëel getal #x#. De bijbehorende bilineaire vorm \[f_q(x,y) =\frac12\left(a\cdot (x+y)^2 -a\cdot x^2-a\cdot y^2 )\right)= a\cdot x\cdot y\] is dan en slechts dan positief-definiet als #a\gt0#. Er bestaan dus kwadratische vormen waarvan de bijbehorende bilineaire vorm geen inproduct is.
De functie #q# op #\mathbb{R}^2# bepaald door \(q(\rv{x,y}) = 2x^2-4xy+5y^2\) is een kwadratische vorm en de bijbehorende bilineaire vorm is
\[\begin{array}{rcl}f(\rv{x,y},\rv{u,v}) &=& \frac12\left( q(\rv{x,y}+\rv{u,v}) - q(\rv{x,y})-q(\rv{u,v})\right)\\ &=&(x+u)^2-2(x+u)\cdot(y+v)+\frac52(y+v)^2)\\&&\phantom{XXX}-(x^2-2xy+\frac52y^2)\\&&\phantom{XXX}-(u^2-2uv+\frac52v^2)\\&=&2xu-2xv-2uy+5yv\end{array}\]
Inderdaad valt #f(\rv{x,y},\rv{x,y})=2x^2-2xy-2xy+5y^2# weer samen met #q(\rv{x,y})#.
We laten zien dat homogeniteit nodig is voor de definitie van een kwadratische vorm. We hebben gezien dat er voor elke kwadratische vorm #q# op #\mathbb{R}# een constante #a# is, zodat # q(x)= a \cdot x^2#. In het bijzonder is #r(x) = x^2 + x# geen kwadratische vorm. Toch voldoet #r# aan de tweede voorwaarde (bilineariteit van de polarisatie) voor een kwadratische vorm, want \[f_r(x,y) = \frac12\left(r(x+y)-r(x)-r(y)\right) = x\cdot y\] is een symmetrische bilineaire functie in #x# en #y#. Dit laat zien dat weglating van de voorwaarde homogeniteit de definitie van kwadratische vorm essentieel verandert.
Als #q# een kwadratische vorm op een vectorruimte #V# is met bilineaire vorm #f_q#, dan is #f_q# symmetrisch. Maar #f_q# is niet noodzakelijk positief-definiet. De vorm #f_q# is dan en slechts dan positief-definiet (en dus ook een inproduct op #V#) als #q(\vec{x})\ge 0# en de gelijkheid #q(\vec{x}) = 0# alleen voorkomt als #\vec{x} = \vec{0}#.
Als #V = \mathbb{R}^n# dan schrijven we voor een vector #\vec{x} = \rv{x_1,\ldots,x_n}# in plaats van #q(\vec{x})# ook wel #q(x_1,\ldots,x_n)#. Dus # q(x,y,z) = q(\rv{x,y,z}) # voor #\rv{x,y,z}\in\mathbb{R}^3#.
De definitie voor de complexe vectorruimten is gelijk aan bovenstaande met dien verstande dat de afbeelding #q# als bereik #\mathbb{C}# heeft.
We laten nu zien hoe de homogene veeltermen van graad #2# verschijnen na keuze van een basis. We brengen in herinnering uit Coördinatisering dat, als #\alpha# een basis is van #V#, de afbeelding #\alpha:V\to\mathbb{R}^n#, waarbij #n=\dim{V}#, de coördinaatvector van een vector van #V# aanwijst met betrekking tot #\alpha#.
Laat #V# een vectorruimte van eindige dimensie #n# zijn, met basis #\alpha#, en #q# een kwadratische vorm op #V#.
- Als #f# de bilineaire vorm van #q# is, dan is er een unieke symmetrische matrix #A#, zodat voor alle #\vec{u},\vec{v}\in V# geldt \[ f(\vec{u},\vec{v}) =\dotprod{\alpha( \vec{u}) }{( A\,\alpha( \vec{v}))}\]We noemen #A# de matrix van #q# ten opzichte van #\alpha#. In het bijzonder heeft #q\circ\alpha^{-1}# de vorm \[q(\alpha^{-1}(\vec{x})) =\dotprod{ \vec{x} }{( A\,\vec{x})} = \sum_{i,j=1}^n a_{ij}x_i x_j\phantom{xx}\text{voor }\vec{x} = \rv{x_1,\ldots,x_n}\in\mathbb{R}^n\]waarbij #a_{ij}# het #(i,j)#-element van #A# is.
- Als #\beta# een andere basis van #V# is, dan is de matrix #B# van #q# ten opzichte van #\beta# gegeven door \[B={}_\alpha I_{\beta}^\top\, A\,\; {}_\alpha I_{\beta}\]
- Er bestaat een basis #\beta# voor #V# zodanig dat de overgangsmatrix #{}_\alpha I_\beta# orthogonaal is en de matrix #B# van #q# ten opzichte van #\beta# diagonaal is. In het bijzonder heeft #q\circ\beta^{-1}# de vorm \[q(\beta^{-1}(\vec{x})) = \sum_{i=1}^n b_ix_i^2\phantom{xx}\text{voor }\rv{x_1,\ldots,x_n}\in\mathbb{R}^n\]waarbij #b_i# de eigenwaarden zijn van #A#. We noemen zo'n vorm een diagonaalvorm van #q#.
- De bilineaire vorm #f# van #q# is dan en slechts dan een inproduct op #V# als alle eigenwaarden van #A# positief zijn.
De formule voor \(q(\alpha^{-1}(\vec{x}))\) laat zien dat de kwadratische vorm een veelterm in de coördinaten van #\vec{x}\in\mathbb{R}^n# is.
De formule voor \(q(\beta^{-1}(\vec{x}))\) geeft aan dat ten opzichte van een geschikte basis de veelterm geschreven kan worden als een som van kwadratische termen, dat wil zeggen: van de vorm #b_i\cdot x_i^2#.
Door #\vec{x}# te vervangen door #\beta(\vec{x})# in de formule \(q(\beta^{-1}(\vec{x})) = \sum_{i=1}^n b_ix_i^2\) krijgen we\[q(\vec{x}) = \sum_{i=1}^n b_i\cdot (\beta (\vec{x})_i)^2\]Zo is #q(\vec{x})# zelf ook geschreven als een lineaire combinatie van kwadraten.
We bewijzen de uitspraken één voor één.
1. Laat #\vec{e}_1,\ldots,\vec{e}_n# de standaardbasis van #\mathbb{R}^n# zijn en schrijf #a_{ij}= f(\alpha^{-1}(\vec{e}_i),\alpha^{-1}(\vec{e}_j))#. Laat verder #A# de #(n\times n)#-matrix zijn met #(i,j)#-element #a_{ij}#. Dan geldt voor #\vec{x} = \rv{x_1,\ldots,x_n}# in #\mathbb{R}^n#:
\[\begin{array}{rcl}q(\alpha^{-1}(\vec{x})) &=& f( \alpha^{-1}(\vec{x}),\alpha^{-1}(\vec{x}))\\ &&\phantom{xxx}\color{blue}{f \text{ is de bilineaire vorm van }q}\\ &=&\displaystyle f\left( \alpha^{-1}\left(\sum_{i=1}^nx_i\vec{e}_i\right),\alpha^{-1}\left(\sum_{j=1}^nx_j\vec{e}_j\right)\right)\\ &&\phantom{xxx}\color{blue}{\text{definitie }\vec{x}}\\ &=&\displaystyle \sum_{i,j=1}^nx_ix_j\cdot f\left( \alpha^{-1}(\vec{e}_i),\alpha^{-1}(\vec{e}_j)\right)\\ &&\phantom{xxx}\color{blue}{\text{bilineariteit }f\text{ en lineariteit }\alpha^{-1}}\\ &=&\displaystyle \sum_{i,j=1}^nx_ix_j\cdot a_{ij}\\ &&\phantom{xxx}\color{blue}{\text{definitie }a_{ij}}\\&=&\displaystyle \sum_{i,j=1}^nx_ix_j\cdot\dotprod{( \vec{e}_i}{(A\,\vec{e}_j))}\\ &&\phantom{xxx}\color{blue}{\text{definitie }A}\\&=&\displaystyle \dotprod{ \vec{x}}{(A\,\vec{x})}\\ &&\phantom{xxx}\color{blue}{\text{bilineariteit inproduct en lineariteit }A}\\\end{array}\]
Hiermee zijn de uitdrukkingen in de stelling voor #q(\alpha^{-1}(\vec{x}))# afgeleid. Polarisatie geeft dan, voor vectoren #\vec{x}# en #\vec{y}# van #\mathbb{R}^n#, \[f( \alpha^{-1}(\vec{x}),\alpha^{-1}(\vec{y})) = \dotprod{ \vec{x}}{(A\,\vec{y})}\] Substitueren we #\vec{x} =\alpha(\vec{u})# en #\vec{y} =\alpha(\vec{v})#, dan volgt \( f(\vec{u},\vec{v}) =\dotprod{\alpha( \vec{u}) }{( A\,\alpha( \vec{v}))}\).
2. De matrices #A# en #B# zijn beide gekoppeld aan waarden van #f#. Dit leidt tot de volgende relatie tussen #A# en #B#:
\[\begin{array}{rcl} \dotprod{\beta(\vec{x})}{(B\, \beta(\vec{y}))} &=& f(\vec{x},\vec{y})\\ &&\phantom{xx}\color{blue}{\text{definitie van }B}\\&=&\dotprod{\alpha(\vec{x})}{(A\, \alpha(\vec{y}))} \\ &&\phantom{xx}\color{blue}{\text{definitie van }A}\\ &=&\dotprod{(\alpha\beta^{-1}(\beta(\vec{x})))}{(A\, (\alpha\beta^{-1})(\beta(\vec{y})))}\\&&\phantom{xx}\color{blue}{\text{herschreven}}\\&=&\dotprod{({}_\alpha I_\beta(\beta(\vec{x})))}{(A\, {}_\alpha I_\beta(\beta(\vec{y})))}\\&&\phantom{xx}\color{blue}{\text{notatie voor overgangsmatrix}}\\&=&\dotprod{\beta(\vec{x})}{({}_\alpha I_\beta^\top\,A\, \;{}_\alpha I_\beta(\beta(\vec{y})))}\\&&\phantom{xx}\color{blue}{\text{definitie getransponeerde }}\\\end{array}\]Omdat #\beta# surjectief is, doorlopen #\beta(\vec{x})# en #\beta(\vec{y})# alle vectoren van #\mathbb{R}^n#. Bijgevolg zijn de matrices #B# en #{}_\alpha I_\beta^\top\,A\, \;{}_\alpha I_\beta# identiek. Dit bewijst dat #B = {}_\alpha I_\beta^\top\,A\, \;{}_\alpha I_\beta#.
3. Volgens de stelling Diagonaliseerbaarheid van symmetrische matrices is er een orthogonale matrix #Q#, zodat #B = Q^\top \,A Q# een diagonaalmatrix is. Laat \[\beta=\basis{\alpha^{-1}(Q\,\vec{e}_1),\ldots,\alpha^{-1}(Q\,\vec{e}_n)}\]Dan geldt voor alle #i# \[\alpha^{-1}(Q\,\vec{e}_i)=\beta^{-1}(\vec{e}_i)=\alpha^{-1}({}_\alpha I_\beta\,\vec{e}_i)\]
Dus #\beta# is een basis waarvoor #Q={}_\alpha I_\beta#. Uit uitspraak 2 volgt dat #B# de matrix van #q# ten opzichte van #\beta # is. Omdat #B# een diagonaalmatrix is, geldt voor de #(i,j)#-elementen #b_{ij}# van #B# dat #b_{ij}=0# als #i\ne j#, zodat\[q(\beta^{-1}(\vec{x})) = \sum_{i,j=1}^n b_{ij}x_i x_j= \sum_{i=1}^n b_{ii}x_i^2\]Omdat #Q# orthogonaal is, is #B = Q^\top \,A Q =Q^{-1} \,A Q# geconjugeerd met # A#. In het bijzonder zijn de diagonaalelementen #b_i = b_{ii}# van #B# de eigenwaarden van #A#. Hiermee is 3 bewezen.
4. Laat #\vec{v}# een vector van #V# ongelijk aan de nulvector zijn. De waarde van #f(\vec{v},\vec{v})# is gelijk aan #q(\vec{v})=\sum_{i=1}^n b_{i}x_i^2# voor #\rv{x_1,\ldots,x_n} = \alpha(\vec{v})#. Deze waarde is dan en slechts dan positief voor alle vectoren #\vec{v}# van #V# ongelijk aan #\vec{0}# als alle #b_i# positief zijn.
Door de vectoren van de basis #\beta# te schalen, kunnen we zelfs bereiken dat elk diagonaalelement van #A# gelijk aan #0#, #1# of #-1# is. Hiertoe schalen we het #i#-de element van #\beta# met #\frac{1}{\sqrt{|b_i|}}# als #b_i\ne0#. De overgangsmatrix is dan niet langer orthogonaal, zodat afstanden in #V# niet langer behouden blijven.
Bekijk nogmaals de kwadratische vorm #q# op #\mathbb{R}^2# bepaald door \(q(\rv{x,y}) = 2x^2-4xy+5y^2\) met bijbehorende bilineaire vorm
\[\begin{array}{rcl}f(\rv{x,y},\rv{u,v}) &=& 2xu-2xv-2uy+5yv\end{array}\]De matrix #A# van #f# voldoet aan
\[\begin{array}{rcl} \matrix{x&y}\, A\, \matrix{u\\ v} &=& f(\rv{x,y},\rv{u,v})\\&=&2xu-2xv-2uy+5yv\end{array}\]Hieruit leiden we af:
\[\begin{array}{rcl} a_{11}&=&\matrix{1&0}\, A\, \matrix{1\\ 0}= 2 \\&&\phantom{xx}\color{blue}{x=1,y=0,u=1,v=0}\\
a_{12}&=&\matrix{1&0}\, A\, \matrix{0\\ 1}= -2 \\ &&\phantom{xx}\color{blue}{x=1,y=0,u=0,v=1}\\
a_{22}&=&\matrix{0&1}\, A\, \matrix{0\\ 1} = 5\\ &&\phantom{xx}\color{blue}{x=0,y=1,u=0,v=1}\\
\end{array}\]Het #(2,1)#-element #a_{21}# van #A# is gelijk aan #a_{12}=-2# omdat #A# symmetrisch is. Dus\[ A = \matrix{2 & -2\\ -2&5}\]We brengen #q# in diagonaalvorm door een orthonormale basis #\beta# van eigenvectoren van #A# te berekenen. De eigenwaarden zijn oplossingen van de karakteristieke vergelijking:
\[\begin{array}{rcl}p_A(x) &=& x^2-7x+6\\ &&\phantom{xx}\color{blue}{\text{de karakteristieke veelterm}}\\\rv{\lambda_1,\lambda_2} &=& \rv{1,6}\\ &&\phantom{xx}\color{blue}{\text{oplossingen van de vergelijking }p_A(x) = 0}\\\beta &=& \basis{\frac{1}{\sqrt{5}}\rv{2,1},\frac{1}{\sqrt{5}}\rv{1,-2}}\\&&\phantom{xx}\color{blue}{\text{bijbehorende genormaliseerde eigenvectoren}}\\{}_\varepsilon I_\beta&=&\frac{1}{\sqrt{5} }\matrix{2&1\\1&-2}\\ &&\phantom{xx}\color{blue}{\text{bijbehorende overgangsmatrix}}\\ q(\beta^{-1}\rv{x,y}) &=&\matrix{x&y}\,{}_\varepsilon I_\beta^\top\, A\,{}_\varepsilon I_\beta \,\matrix{x\\ y}\\&&\phantom{xx}\color{blue}{\text{kwadratische vorm ten opzichte van }\beta}\\&=&\matrix{x&y}\,\matrix{1&0\\ 0&6}\,\matrix{x\\ y}\\&&\phantom{xx}\color{blue}{\text{diagonaalmatrix ingevuld}}\\&=& x^2+6y^2\\&&\phantom{xx}\color{blue}{\text{matrixproducten uitgewerkt}}\end{array}\]Aldus hebben we de diagonaalvorm #q(\beta^{-1}\rv{x,y})=x^2+6y^2# voor #q# gevonden. Door #\rv{x,y}# te vervangen door #\beta(\rv{x,y})# vinden we een uitdrukking van #q(x,y)# als lineaire combinatie van twee kwadraten: \[ q(x,y) = \frac15(2x+y)^2+\frac65(x-2y)^2\]In het bijzonder blijkt #q# positief-definiet te zijn.
De diagonaalvorm is overigens meteen duidelijk nadat de eigenwaarden van #A# bekend zijn: dit zijn de coëfficiënten van de kwadraten van de coördinaten in #q(\beta^{-1}\rv{x,y})#. Het merendeel van de berekening bestaat dus uit het vinden van een orthonormale basis waarop de diagonaalvorm wordt aangenomen.
Door de coördinatentransformatie #{}_\varepsilon I_\beta# zijn dus alle kruisproducten (dat wil zeggen: producten van twee verschillende variabelen) verdwenen! We kunnen de diagonaalvorm van #q# al opschrijven zodra de eigenwaarden van #A# bekend zijn.
In veel gevallen passen we de stelling toe met #V = \mathbb{R}^n# en #\alpha = \varepsilon#, de standaardbasis, zodat #\alpha# orthonormaal is. Als #\alpha# orthonormaal is, dan is de overgangsmatrix #{}_\alpha I_\beta# dan en slechts dan orthogonaal als #\beta # orthonormaal is. We brengen in herinnering uit Orthogonaliteitscriteria voor matrices en Overgangsmatrices en orthonormale bases dat dit betekent dat \[{}_\alpha I_\beta^{-1}= {{}_\alpha I_\beta}^\top ={}_\beta I_\alpha\]
De stelling geldt ook voor complexe vectorruimten.
Als alle eigenwaarden van #A# niet-negatief zijn, dan is #q# positief semi-definiet, wat betekent dat #q(\vec{x})\ge0# voor alle #\vec{x}# in #V#.
De verzameling vectoren waarin een kwadratische vorm een vast gekozen waarde aanneemt, heet een kwadriek. Het is de verzameling oplossingen van een kwadratische veeltermvergelijking met meerdere onbekenden. In het algemeen bevat de vergelijking van een kwadriek naast een kwadratische vorm ook lineaire termen. Daar gaan we later op in.
Laat #q:\mathbb{R}^3\to \mathbb{R}# de kwadratische vorm zijn bepaald door
\[\begin{array}{rcl}q(x,y,z) &=& \displaystyle x^2-4 x y+4 x z+2 y^2-4 y z\end{array}\]Wat is de matrix #A# van #q#?
#A= # #\matrix{1 & -2 & 2 \\ -2 & 2 & -2 \\ 2 & -2 & 0 \\ }#
De matrix #A# is bepaald door
\[\begin{array}{rcl}q(x,y,z) &=& f(\rv{x,y,z},\rv{x,y,z})\\
&&\phantom{xxxxwwwwwwwxxxx}\color{blue}{f\text{ is de bilineaire vorm van }q}\\
&=&\dotprod{\rv{x,y,z}}{\left(A\, \rv{x, y, z} \right)}\\
&&\phantom{xxxxwwwwwwwxxxx}\color{blue}{\text{definitie van }A}\\
&=& {\matrix{x&y&z}}\,A\, \matrix{x\\ y\\ z}\\
&&\phantom{xxxxwwwwwwwxxxx}\color{blue}{\text{inproduct herschreven als matrixproduct}}\\
&=&a_{11}x^2+(a_{12}+a_{21})xy+(a_{13}+a_{31})xz+a_{22}y^2+(a_{23}+a_{32})yz+a_{33}z^2\\
&&\phantom{xxxxwwwwwwwxxxx}\color{blue}{\text{matrixproduct uitgewerkt}}\\
&=& a_{11}x^2+2a_{12}xy+2a_{13}xz+a_{22}y^2+2a_{23}yz+a_{33}z^2\\
&&\phantom{xxxxwwwwwwwxxxx}\color{blue}{A\text{ is symmetrisch}}
\end{array}\]Vergelijking met het functievoorschrift #q(x,y,z) =x^2-4 x y+4 x z+2 y^2-4 y z# geeft
\[\begin{array}{rclcr} a_{11}&=&\text{coëfficiënt van } x^2 &=& 1 \\
a_{12}&=&\frac12(\text{coëfficiënt van } x y) &=& -2 \\
a_{13}&=&\frac12(\text{coëfficiënt van } x z )&=& 2 \\
a_{22}&=&\text{coëfficiënt van } y^2 &=& 2 \\
a_{23}&=&\frac12(\text{coëfficiënt van } y z) &=& -2 \\
a_{33}&=&\text{coëfficiënt van } z^2 &=& 0
\end{array}\]De overige elementen van #A# volgen nu uit het feit dat #A# symmetrisch is. De conclusie is
\[\begin{array}{rcl} A &=& \matrix{1 & -2 & 2 \\ -2 & 2 & -2 \\ 2 & -2 & 0 \\ }\end{array}\]