Als #A# een inverteerbare matrix is, dan kunnen we de oplossing van een vergelijking van de vorm #A\vec{x} = \vec{b}# in de onbekende vector #\vec{x}# direct opschrijven in termen van de determinanten van submatrices die in de ontwikkeling naar rij of kolom voorkomen. Deze submatrices zijn de #((n-1)\times(n-1))#-matrices #A_{ij}# die uit #A# verkregen worden door de #i#-de rij en de #j#-de kolom te schrappen. Daarbij speelt het volgende begrip een centrale rol.
De geadjugeerde matrix van de #(n\times n)#-matrix #A# is de #(n\times n)#-matrix \(\text{adj}(A) \) waarvan het #(i,j)#-element gelijk is aan #(-1)^{i+j}\det(A_{ji})#.
Het #(i,j)#-element van #\text{adj}(A)# is dus, op een teken na, niet de determinant van #A_{ij}# maar van #A_{ji}#.
De geadjugeerde matrix van #\matrix{a&b\\ c&d}# is #\matrix{d&-b\\ -c&a}#.
De geadjugeerde matrix van #\matrix{a&b&c\\ d&e&f\\ g&h&i}# is
\[\matrix{e\,i-f\,h&c\,h-b\,i&b\,f-c\,e\\ f\,g-d\,i&a\,i-c\,g&c\,d-
a\,f\\ d\,h-e\,g&b\,g-a\,h&a\,e-b\,d }\]
De geadjugeerde matrix #\text{adj}(A)# is dan en slechts dan gelijk aan de nulmatrix als de rang van #A# kleiner is dan #n-1#.
Om dit in te zien onderscheiden we twee gevallen:
- als #\text{adj}(A)\ne0#, dan is de determinant van een #((n-1)\times(n-1))#-submatrix van #A# ongelijk aan #0#, en dus is die submatrix inverteerbaar (zie stelling Inverteerbaarheid in termen van determinant). De #n-1# kolommen van #A# met dezelfde kolomnummers als van deze submatrix zijn dan ook lineair onafhankelijk (zie stelling Inverteerbaarheid en rang). Dit betekent dat dan #\text{rang}(A) \ge n-1#.
- Als #\text{adj}(A)=0#, dan is de determinant van elke #((n-1)\times(n-1))#-submatrix van #A# gelijk aan #0#. Als de rang van #A# minstens #n-1# zou zijn, dan zouden er #n-1# lineair onafhankelijke kolommen van #A# zijn. Door de #n# rijen van de bijbehorende #(n\times(n-1))#-matrix als vectoren van #\mathbb{R}^{n-1}# op te vatten, kunnen we de uitdunningstelling toepassen, die zegt dat er #n-1# rijen te vinden zijn die lineair onafhankelijk zijn. Door de afhankelijke rij weg te laten uit de bovengenoemde #(n\times(n-1))#-matrix vinden we een #((n-1)\times(n-1))#-submatrix van #A# van rang #n-1#. Volgens de stelling Inverteerbaarheid en rang is de determinant van deze submatrix ongelijk aan #0#. Dit is in tegenspraak met de aanname #\text{adj}(A)=0#. We concluderen dat #\text{rang}(A)\lt n-1#.
Als de matrix #A# inverteerbaar is, dan is #\text{adj}(A)# op een scalair veelvoud na de inverse van #A#:
Laat #A# een #(n\times n)#-matrix zijn.
- \(\det(A)\cdot I_n=\text{adj}(A)\, A=A\,\text{adj}(A)\).
- Als #\vec{b}# een vector in #\mathbb{R}^n# is, dan voldoet elke oplossing #\vec{x}# van de vergelijking \(A\vec{x} =\vec{b}\) aan \(\det(A) \vec{x} =\text{adj}(A)\vec{b} \).
- Regel van Cramer: Als #\vec{b}# in het beeld van #A# ligt en #\det(A)\ne0#, dan is de oplossing #\vec{x}# van de vergelijking \(A\vec{x} =\vec{b}\) gelijk aan \[ \vec{x} =\dfrac{1}{\det(A)}\,\rv{\det (A_1(\vec{b} )) ,\ldots,\det (A_n(\vec{b} )) } \] waarbij #A_j (\vec{b} )# de matrix is die uit #A# verkregen wordt door de #j#-de kolom door #\vec{b}# te vervangen.
Met #\vec{k}_1,\ldots ,\vec{k}_n# geven we de kolommen van #A# aan. Laat #\vec{b}# een willekeurige vector in #\mathbb{R}^n# zijn. Met #A_j (\vec{b} )# geven we de matrix aan die uit #A# verkregen wordt door de #j#-de kolom door #\vec{b}# te vervangen. Dan geldt\[ \det (A_j(\vec{k}_\ell))=\begin{cases}\det(A)&\text{als } \ell=j\\ 0&\text{anders}\end{cases}\]
1. Ontwikkelen we de determinant van \(\det (A_j(\vec{k}_\ell))\) naar de #j#-de kolom, dan vinden we \[\begin{array}{rcl}\det(A_j(\vec{k}_\ell)) &=& \sum_{i=1}^n (-1)^{i+j}a_{i\ell}\det (A_{ij}) \\&&\phantom{xxx}\color{blue}{\text{de }j\text{-de kolom van }A_j(\vec{k}_\ell)\text{ is }\vec{k}_\ell=\cv{a_{1\ell}\\\vdots\\a_{n\ell}}}\\&=& \sum_{i=1}^n \left((-1)^{i+j}\det (A_{ij}) \right)\cdot a_{i\ell}\\&&\phantom{xxx}\color{blue}{\text{volgorde van de laatste twee factoren veranderd}}\\&=&\text{het } (j,\ell)\text{-element van }\text{adj}(A) \, A\\ &&\phantom{xxx}\color{blue}{(-1)^{i+j}\det (A_{ij})=\text{het }(j,i)\text{-element van }\text{adj}(A)} \end{array}\]In de laatste stap hebben we de definitie van het matrixproduct gebruikt.
Omdat \(\det(A_j(\vec{k}_\ell))=\det(A)\) als #\ell=j# en anders #0#, volgt dat \(\text{adj}(A)\, A\) gelijk is aan de matrix #\det(A)\cdot I_n#.
Dit bewijst de eerste gelijkheid. De tweede volgt hieruit door voldoende te transponeren:
\[\begin{array}{rcl}\det(A^\top)\cdot I_n &=& \text{adj}(A^\top)\,A^\top\\&&\phantom{xx}\color{blue}{\text{eerste gelijkheid toegepast op }A^\top}\\ \det(A^\top)\cdot I_n^\top&=&A\,\left(\text{adj}(A^\top)\right)^\top\\&&\phantom{xx}\color{blue}{\text{beide zijden getransponeerd}}\\\det(A)\cdot I_n&=&A\,\left(\text{adj}(A^\top)\right)^\top\\&&\phantom{xx}\color{blue}{\det(A^\top)=\det(A)\text{ en }I_n^\top=I_n\text{ in het linker lid}}\\ \det(A)\cdot I_n&=&A\,\text{adj}(A)\\ &&\phantom{xx}\color{blue}{\left(\text{adj}(A^\top)\right)^\top=\left(\left(\text{adj}(A)\right)^\top\right)^\top=\text{adj}(A)} \end{array}\]
2. Pas #\text{adj}(A)# toe op de vergelijking \(A\vec{x} =\vec{b}\):
\[\text{adj}(A)\,A\vec{x} =\text{adj}(A)\vec{b}\]
Vanwege punt 1 is het linker lid gelijk aan \(\det(A) \vec{x} \). Hiermee is de gelijkheid in punt 2 afgeleid.
3. Elke oplossing #\vec{x} = \rv{x_1,\ldots,x_n}# van de vergelijking \(A\vec{x} =\vec{b}\) voldoet aan
\[
\vec{b}=x_1\vec{k}_1+x_2\vec{k}_2+\cdots +x_n\vec{k}_n
\] Daarom geldt
\[
\begin{array}{rcl}
\det \left(A_j(\vec{b} )\right) & = &\det \left(A_j\left(\sum_{i=1}^n x_i\,\vec{k}_i\right)\right)\\&&\phantom{xx}\color{blue}{\text{bovenstaande uitdrukking voor }\vec{b}}\\
& =& \sum_{i=1}^nx_i\det\left (A_j(\vec{k}_i)\right)\\&&\phantom{xx}\color{blue}{\text{lineariteit van}\det\text{in de }j\text{-de kolom en van }A}\\
& =& x_j\det (A) \\&&\phantom{xx}\color{blue}{\text{formule voor}\det(A_j(\vec{k}_\ell))\text{ aan het begin van het bewijs}}\\
\end{array}
\] Daarmee hebben we de Regel van Cramer gevonden: als #\det(A)\ne0#, dan is de oplossing van bovenstaand stelsel
\[
x_j=\dfrac{\det (A_j(\vec{b}))}{\det (A)}\phantom{xxxx} \text{voor }j=1,\ldots ,n
\]
Bekijk de vergelijking #A\vec{x}=\vec{b}# voor #n=2#: \[\underbrace{\matrix{a_{11}&a_{12}\\a_{21}&a_{22}}}_{A}\underbrace{\cv{x_1\\x_2}}_{\vec{x}}=\underbrace{\cv{b_1\\b_2}}_{\vec{b}}\] De regel van Cramer geeft direct de oplossing \[
\vec{x}=\dfrac{1}{\det(A)}\,\cv{\det (A_1(\vec{b}))\\\det (A_2(\vec{b}))}=\dfrac{1}{\left|\begin{array}{cc}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{array}\right|}\cv{\left|\begin{array}{cc}
b_1 & a_{12}\\
b_2 & a_{22}
\end{array}\right|\\\left|\begin{array}{cc}
a_{11} & b_1\\
a_{21} & b_2
\end{array}\right|}=\dfrac{1}{a_{11}a_{22}-a_{12}a_{21}}\cv{a_{22}b_1-a_{12}b_2\\a_{11}b_2-a_{21}b_1}
\] mits #a_{11}a_{22}-a_{12}a_{21}\neq 0#. Merk op dat #\vec{x}=A^{-1}\vec{b}#, immers\[A^{-1}=\frac{1}{a_{11}a_{22}-a_{12}a_{21}}\,\matrix{a_{22} & -a_{12} \\ -a_{21} & a_{11}}\] Deze bekende formule voor de inverse van #A# kunnen we overigens ook afleiden met de regel van Cramer. Voor het gemak hernoemen we de matrixelementen als volgt\[A=\matrix{a&b\\c&d}\] en geven we de kolommen van de inverse van #A# aan met de kolomvectoren #\vec{x}# en #\vec{y}#: \[A^{-1}=\matrix{\vec{x}&\vec{y}}=\matrix{x_1&y_1\\x_2&y_2}\] Per definitie voldoet de inverse aan #A\,A^{-1}=I_2#, oftewel\[\matrix{a&b\\c&d}\matrix{x_1&y_1\\x_2&y_2}=\matrix{1&0\\0&1}\] Deze vergelijking kunnen we opsplitsen in twee delen\[\underbrace{\matrix{a&b\\c&d}}_{A}\underbrace{\cv{x_1\\x_2}}_{\vec{x}}=\underbrace{\cv{1\\0}}_{\vec{e}_1}\quad \hbox{en}\quad\underbrace{\matrix{a&b\\c&d}}_{A}\underbrace{\cv{y_1\\y_2}}_{\vec{y}}=\underbrace{\cv{0\\1}}_{\vec{e}_2}\]waarin #\vec{e}_1# en #\vec{e}_2# de standaardbasisvectoren van #\mathbb{R}^2# zijn. De regel van Cramer geeft\[\vec{x}=\dfrac{1}{\det(A)}\,\cv{\det (A_1(\vec{e}_1))\\\det (A_2(\vec{e}_1))}=\frac{1}{\left|\begin{array}{cc}a&b\\c&d\end{array}\right|}\cv{\left|\begin{array}{cc}1&b\\0&d\end{array}\right|\\\left|\begin{array}{cc}a&1\\c&0\end{array}\right|}=\frac{1}{ad-bc}\cv{d\\-c}\]\[\vec{y}=\dfrac{1}{\det(A)}\,\cv{\det (A_1(\vec{e}_2))\\\det (A_2(\vec{e}_2))}=\frac{1}{\left|\begin{array}{cc}a&b\\c&d\end{array}\right|}\cv{\left|\begin{array}{cc}0&b\\1&d\end{array}\right|\\\left|\begin{array}{cc}a&0\\c&1\end{array}\right|}=\frac{1}{ad-bc}\cv{-b\\a}\]waaruit het bekende resultaat volgt
\[
A^{-1}=\matrix{\vec{x}&\vec{y}}=\frac{1}{ad-bc}\,\matrix{d & -b \\ -c & a}
\]In één van de voorbeelden merkten we al op dat #\matrix{d&-b\\ -c&a}# de geadjugeerde van #\matrix{a&b\\ c&d}# is.
Het stelsel #A\vec{x} = \vec{b}# heeft precies één oplossing als #\det (A)\neq 0#. Het opmerkelijke is dat we met behulp van determinanten die oplossing dankzij regel 3 zelfs expliciet kunnen opschrijven. Deze regel 3 is eigenlijk alleen voor #n=2# van enig praktisch belang. Voor #n\geq 3# is het direct oplossen van het stelsel veel sneller dan alle determinanten uitrekenen.
Met regel 1 kunnen we de inverse van een inverteerbare #(n\times n)#-matrix vinden via\[A^{-1}=\frac{1}{\det(A)}\text{adj}(A)\]Ook hier geldt dat voor #n\geq 3# deze formule voornamelijk van theoretisch belang is en voor ons nauwelijks praktische waarde heeft. Het berekenen van inversen met behulp van vegen is vrijwel altijd praktischer.
Vergelijk van uitspraken 2 en 3 laat zien dat de #j#-de component #\left(\text{adj}(A)\vec{b}\right)_j# van de vector #\text{adj}(A)\vec{b}# gelijk is aan #\det( A_j(\vec{b}))#. Dit is natuurlijk ook rechtstreeks in te zien: als #\vec{b} = \sum_{i=1}^n\lambda_i\vec{e}_i#, dan geldt
\[\begin{array}{rcl}\left(\text{adj}(A)\vec{b}\right)_j &=& \sum_{i=1}^n\lambda_i\left(\text{adj}(A)\vec{e}_i\right)_j\\ &&\phantom{xx}\color{blue}{\text{lineariteit}}\\&=& \sum_{i=1}^n\lambda_i\left(\text{adj}(A)\right)_{ji}\\&&\phantom{xx}\color{blue}{\left(\text{adj}(A)\vec{e}_i\right)_j\text{ is het }(j,i)\text{-element van adj}(A)}\\ &=& \sum_{i=1}^n\lambda_i(-1)^{i+j}\det(A_{ij})\\ &&\phantom{xx}\color{blue}{\text{definitie adj}(A)}\\ &=& \sum_{i=1}^n\lambda_i\det(A_{j}(\vec{e}_i))\\&&\phantom{xx}\color{blue}{\text{ontwikkeling naar }j\text{-de kolom van }A_{j}(\vec{e}_i)\text{ geeft}}\\&&\phantom{xx}\color{blue}{\det(A_{j}(\vec{e}_i))=(-1)^{i+j}\det(A_{ij})}\\&=&\det(A_{j}(\vec{b}))\\ &&\phantom{xx}\color{blue}{\text{lineariteit}}\end{array}\]
In Inverteerbaarheid in termen van determinant zagen we dat een vierkante matrix dan en slechts dan inverteerbaar is als de determinant ervan ongelijk aan #0# is. Deze uitspraak is ook af te leiden uit de onderhavige stelling.
Laat \(A\) de volgende \((3\times3)\)-matrix zijn: \[A=\matrix{0 & -1 & -1 \\ 1 & -1 & -1 \\ -1 & 1 & 1 \\ }\]Bereken de geadjugeerde matrix van \(A\).
\(\text{adj}(A)={}\)\(\matrix{0 & 0 & 0 \\ 0 & -1 & -1 \\ 0 & 1 & 1 \\ }\)
Immers \[\begin{array}{rllr} (\text{adj}(A))_{11}\!\!\! & =(-1)^2\cdot (-1\cdot1 +1\cdot1)\!\!\! &=&\!\!\! 0\\
(\text{adj}(A))_{12}\!\!\! &=(-1)^3\cdot (-1\cdot1+1\cdot1)\!\!\! &=&\!\!\! 0\\
(\text{adj}(A))_{13}\!\!\! &=(-1)^4\cdot (-1\cdot-1+1\cdot-1)\!\!\! &=&\!\!\! 0\\
(\text{adj}(A))_{21}\!\!\! &=(-1)^3\cdot (1\cdot1+1\cdot-1)\!\!\! &=&\!\!\! 0\\
(\text{adj}(A))_{22}\!\!\! &=(-1)^4\cdot(0\cdot1+1\cdot-1)\!\!\! &=&\!\!\! -1\\
(\text{adj}(A))_{23}\!\!\! &=(-1)^5\cdot (0\cdot-1+1\cdot1)\!\!\! &=&\!\!\! -1\\
(\text{adj}(A))_{31}\!\!\! &=(-1)^4\cdot (1\cdot1+1\cdot-1)\!\!\! &=&\!\!\! 0\\
(\text{adj}(A))_{32}\!\!\! &=(-1)^5\cdot (0\cdot1+1\cdot-1)\!\!\! &=&\!\!\! 1\\
(\text{adj}(A))_{33}\!\!\! &=(-1)^6\cdot(0\cdot-1+1\cdot1)\!\!\! &=&\!\!\! 1
\end{array}\]zodat
\[\text{adj}(A)={}\matrix{0 & 0 & 0 \\ 0 & -1 & -1 \\ 0 & 1 & 1 \\ }\]
Volgens de regel van Cramer is #A\,\text{adj}(A) = \det(A)\cdot I_3#. Vermenigvuldiging van #A# met #\text{adj}(A)# geeft de nulmatrix, dus #\det(A) =0#.