Een belangrijke eigenschap van reële symmetrische matrices is dat ze een orthonormale basis van eigenvectoren hebben. Als #A# een symmetrische #(n\times n)#-matrix is met eigenwaarden #\lambda_1,\dots,\lambda_n# en bijbehorende orthonormale basis van eigenvectoren #\alpha=\basis{\vec{a}_1,\dots,\vec{a}_n}#, dan is #A# geconjugeerd met de diagonaalmatrix #D# die als diagonaalelementen #\lambda_1,\dots,\lambda_n# heeft:
\[ A={}_\varepsilon I_\alpha \,D\,{}_\alpha I_\varepsilon \]
Dit kunnen we ook schrijven als \[A=\lambda_1\vec{a}_1\vec{a}_1^\top+\cdots+\lambda_n\vec{a}_n\vec{a}_n^\top\] waarbij de elementen #\vec{a}_i# van #\alpha# gezien worden als kolomvectoren. Op deze manier is #A# geschreven als een som van de rang-één matrices #\vec{a}_i\vec{a}_i^\top# voor #i=1,\ldots,n#.
Als we aannemen dat #|\lambda_1|\ge |\lambda_2| \ge\cdots \ge |\lambda_n|#, dan leggen de begintermen van deze som 'meer gewicht in de schaal' dan de termen aan het eind. Door de eerste #k# termen te nemen (of de termen waarvoor #|\lambda|# relatief klein is te verwaarlozen) kunnen we goede benaderingen krijgen van #A# met matrices van lagere rang. Dit leidt in de praktijk tot belangrijke kostenbesparingen bij gering verlies aan kwaliteit.
Voor niet-symmetrische matrices werkt dit niet, en voor niet-vierkante matrices hebben we zelfs geen eigenwaarden of eigenvectoren. Maar ook in dat geval bestaat er een nuttige opsplitsing in rang-één matrices. Voor we daar aan toekomen, definiëren we een alternatief voor eigenwaarden in het geval van een matrix die niet vierkant is:
Als #A# een #(m\times n)#-matrix is en #\lambda# een eigenwaarde van #A^\top A# ongelijk aan #0#, dan is #\lambda# positief en ook een eigenwaarde van #A\, A^\top # met dezelfde multipliciteit als voor #A^\top A#.
In dat geval heet #\sqrt{\lambda}# een singuliere waarde van #A#.
Laat #E_\lambda# de eigenruimte in #\mathbb{R}^n# van #A^\top A# bij eigenwaarde #\lambda# zijn en #F_\lambda# de eigenruimte in #\mathbb{R}^m# van #A\, A^\top # bij dezelfde eigenwaarde.
Stel dat #\vec{v}# een eigenvector is van #A^\top A# bij eigenwaarde #\lambda#, zodat #\vec{v}# een element van #E_\lambda# is ongelijk aan de nulvector. Dan geldt
\[\lambda (\dotprod{\vec{v}}{\vec{v}}) =\dotprod{(\lambda \vec{v})}{\vec{v}}=\dotprod{(A^\top A \vec{v})}{\vec{v}}=\dotprod{(A \vec{v})}{(A\vec{v})}\ge0\]
Aangezien \(\dotprod{\vec{v}}{\vec{v}}\gt0\) volgt hieruit dat #\lambda\ge0#. Omdat we veronderstellen dat #\lambda# ongelijk is aan #0#, is de eigenwaarde #\lambda# positief.
Schrijf nu #\vec{u} = \lambda^{-\frac12} A\vec{v}#. Dan geldt
\[\begin{array}{rcl}A^\top\vec{u} &=& \lambda^{-\frac12} A^\top A\vec{v} = \lambda^{-\frac12} \lambda\vec{v} = \lambda^{\frac12} \vec{v} \\&&\text{en dus }\\ (A\, A^\top)\vec{u} &=&A\,( A^\top\vec{u}) =\lambda^{\frac12} A \vec{v} = \lambda\vec{u}\end{array}\]De eerste regel laat zien dat #\vec{u}# ongelijk aan de nulvector is (want anders zou ook het beeld onder #A^\top# de nulvector zijn, wat tegenspreekt dat het gelijk is aan #\lambda^{\frac12} \vec{v}#). De tweede regel laat zien dat #\vec{u}# een eigenvector is van #A\, A^\top# bij eigenwaarde #\lambda#, zodat #\vec{u}# tot #F_\lambda# behoort en #\lambda# een eigenwaarde van #A\, A^\top # is.
De afbeelding die aan een vector #\vec{v}# in #E_\lambda# de vector #\lambda^{-\frac12}A\vec{v}# toewijst is dus een lineaire afbeelding #E_\lambda\to F_\lambda#. Op overeenkomstige wijze is de afbeelding die aan #\vec{u}# in #F_\lambda# de vector #\lambda^{-\frac12}A^\top \vec{u}# toewijst een lineaire afbeelding #F_\lambda\to E_\lambda#. De tweede vergelijking hierboven laat zien dat ze elkaars inverse zijn:
\[\lambda^{-\frac12}A\,(\lambda^{-\frac12}A^\top)\vec{u}=\lambda^{-1}(A\, A^\top)\vec{u}=\lambda^{-1} \lambda \vec{u}=\vec{u}\]
In het bijzonder hebben #E_\lambda# en #F_\lambda# dezelfde dimensie, zodat de multipliciteit van #\lambda# als eigenwaarde voor #A^\top A# samenvalt met de multipliciteit van #\lambda# als eigenwaarde voor #A\, A^\top#.
Als de matrix #A# symmetrisch is, dan is #A^\top A# hetzelfde als #A^2# en zijn de singuliere waarden van #A# gewoon de absolute waarden van de eigenwaarden van #A# die ongelijk aan nul zijn.
De matrix \[A = \left(\begin{array}{cc}1&0 \\0&1 \\ 1&1\end{array}\right)\] heeft singuliere waarden #\sqrt3# en #1#, want \[A^\top A=\matrix{2&1\\ 1&2}\] heeft eigenwaarden #3# en #1#. De matrix \[A\, A^\top=\matrix{1&0&1\\ 0&1&1\\ 1&1&2}\] heeft eigenwaarden #3#, #1# en #0#. Inderdaad zijn de positieve eigenwaarden van #A\, A^\top# gelijk aan die van #A^\top A#.
Omdat #A^\top A= A^\top\,(A^\top)^\top#, hebben #A# en #A^\top# dezelfde singuliere waarden.
Voor de beste benadering van een diagonaalmatrix in het geval van een matrix die niet vierkant is, hebben we de volgende definitie nodig.
Een #(m\times n)#-matrix #A# heet een gegeneraliseerde diagonaalmatrix als #A_{ij}=0# wanneer #i\ne j#. De getallen #A_{ii}# heten de diagonaalelementen van #A#.
De matrix #A=\left(\begin{array}{ccc}2&0&0\\ 0&3&0\end{array}\right)# is een gegeneraliseerde diagonaalmatrix met diagonaalelementen #2# en #3#. Bovendien zijn \[A\,A^\top=\matrix{4&0\\ 0&9}\qquad\text{en}\qquad A^\top A=
\matrix{4&0&0\\ 0&9&0\\ 0&0&0}\] diagonaalmatrices met dezelfde positieve diagonaalelementen.
Als #A# een gegeneraliseerde diagonaalmatrix is, dan zijn zowel #A\,A^\top# als #A^\top A# diagonaalmatrices met dezelfde positieve diagonaalelementen, maar met een mogelijkerwijs verschillend aantal nullen op de diagonaal.
De volgende ontbinding van een willekeurige matrix #A# als het product van twee orthogonale matrices met daartussen een gegeneraliseerde diagonaalmatrix komt tot stand dankzij de eigenwaardentheorie voor #A^\top A# en #A\, A^\top#:
Elke #(m\times n)#-matrix #A# met rang #r# kan worden geschreven als #A=U\, D\, V^\top# waarbij
- #D# een gegeneraliseerde #(m\times n)#-diagonaalmatrix is met als diagonaalelementen de singuliere waarden van #A# in afnemende grootte,
- #V# (en dus ook #V^\top#) een orthogonale #(n\times n)#-matrix is, en
- #U# een orthogonale #(m\times m)#-matrix is.
De kolommen van #V# vormen een orthonormale basis van #\mathbb{R}^n# bestaande uit eigenvectoren van de symmetrische matrix #A^\top A#. De eerste #r# kolommen zijn eigenvectoren met positieve eigenwaarden. Indien #r\lt n#, dan zijn de overige #n-r# kolommen eigenvectoren met eigenwaarde nul.
De kolommen van #U# vormen een orthonormale basis van #\mathbb{R}^m# bestaande uit eigenvectoren van de symmetrische matrix #A\, A^\top#. De eerste #r# kolommen zijn eigenvectoren met positieve eigenwaarden. Indien #r\lt m#, dan zijn de overige #m-r# kolommen eigenvectoren met eigenwaarde nul.
Voor elke positieve eigenwaarde #\lambda# van #A^\top A# kunnen we een kolom van #U# verkrijgen door op de corresponderende eigenvector van #A^\top A# de afbeelding #\lambda^{-\frac12}A# los te laten. Het resultaat is een eigenvector van #A\,A^\top# met dezelfde eigenwaarde #\lambda#.
De ontbinding heet de singuliere waarden ontbinding. Als #\vec{u}_1,\ldots,\vec{u}_m# de kolommen van #U# zijn, #\vec{v}_1,\ldots,\vec{v}_n# de kolommen van #V#, en verder #\lambda_1,\ldots,\lambda_r# de positieve eigenwaarden van #A\, A^\top# zijn, dan kan de ontbinding herschreven worden tot \[ A =\sum_{j=1}^r \lambda_j^{\frac12}{\vec{u}_j} {\vec{v}_j^\top}\]
Alle rijen van een matrix met rang één zijn scalaire veelvouden van elkaar. Een #(m\times n)#-matrix van rang één heeft daarom de volgende vorm:\[M=\matrix{c_1x_1& c_1x_2&\cdots &c_1x_n\\c_2x_1& c_2x_2&\cdots &c_2x_n\\\vdots&\vdots&\vdots &\vdots\\c_mx_1& c_mx_2&\cdots &c_mx_n\\}\]Dit kunnen we eenvoudiger noteren als:\[M=\matrix{c_1\\c_2\\\vdots\\c_m}\matrix{x_1&x_2&\cdots &x_n}\]Bijvoorbeeld:\[\matrix{14&21&35\\22&33&55}=\matrix{7\\11}\matrix{2&3&5}\]
Indien #r\lt n#, dan zijn de laatste #n-r# kolommen van #V# eigenvectoren van #A^\top A# bij eigenwaarde nul. Deze #n-r# kolommen vormen dus een orthonormale basis #\basis{\vec{v}_{r+1},\ldots\vec{v}_n}# voor de kern van #A^\top A#.
Een vector #\vec{v}# zit dan en slechts dan in de kern van #A^\top A# als deze in de kern van #A# zit.
Immers, als #\vec{v}# in de kern van #A# zit, dan geldt\[A^\top A\vec{v}=A^\top\vec{0}=\vec{0}\] wat aantoont dat #\vec{v}# in de kern van #A^\top A# zit. Omgekeerd, als #\vec{v}# in de kern van #A^\top A# zit, dan geldt\[\dotprod{A\vec{v}}{A\vec{v}}=\dotprod{A^\top A\vec{v}}{\vec{v}}=\dotprod{\vec{0}}{\vec{v}}=0\]Uit de positief-definietheid van het inproduct volgt vervolgens #A\vec{v}=\vec{0}# wat aantoont dat #\vec{v}# in de kern van #A# zit.
Op vergelijkbare wijze volgt dat de laatste #m-r# kolommen van #U# een orthonormale basis #\basis{\vec{u}_{r+1},\ldots\vec{u}_m}# vormen voor de kern van #A\, A^\top#, en dat een vector #\vec{u}# dan en slechts dan in de kern van #A\, A^\top# zit als deze in de kern van #A^\top# zit.
Deze resultaten gebruiken we in het bewijs van de stelling.
Kies een orthonormale basis voor elke eigenruimte #E_\lambda#, waarbij #\lambda# de positieve eigenwaarden van #A^\top A# afloopt in afnemende grootte. Zet deze bases achter elkaar. Dit is een orthonormaal stelsel (merk op dat #A^\top A# een symmetrische lineaire afbeelding is en zie Invariante orthogonale complementen voor symmetrische lineaire afbeeldingen). Zeg #\basis{\vec{v}_1,\ldots,\vec{v}_r}#. Vul deze basis aan met vectoren #\basis{\vec{v}_{r+1},\ldots\vec{v}_n}# tot een orthonormale basis voor #\mathbb{R}^n#.
Laat nu #\vec{u}_i = \lambda_i^{-\frac12}A\vec{v}_i# voor #i=1,\ldots,r#. Dit stelsel is orthonormaal (zie stelling Diagonaliseerbaarheid van symmetrische afbeeldingen). Vul dit stelsel aan met #\vec{u}_{r+1},\ldots,\vec{u}_m# tot een orthonormale basis voor #\mathbb{R}^m#.
Laat #U# de matrix zijn waarvan de kolommen de vectoren #\vec{u}_1,\ldots,\vec{u}_m# zijn en laat #V# de matrix zijn waarvan de kolommen de vectoren #\vec{v}_1,\ldots,\vec{v}_n# zijn. Dan is #U\,D\,V^\top# een ontbinding als gevraagd. Het is duidelijk dat #D# een gegeneraliseerde diagonaalmatrix is met afmetingen #m\times n#. Omdat de gekozen bases orthonormaal zijn, zijn de matrices #U# en #V# orthogonaal.
We bewijzen nog dat #A # samenvalt met #U\,D\,V^\top#. Daartoe laten we zien dat #\dotprod{\vec{u}_i}{(U\,D\, V^\top\vec{v}_j)}# gelijk is aan #\dotprod{\vec{u}_i}{(A\vec{v}_j)}# voor alle #i# en #j# met #1\le i\le m# en #1\le j\le n#. Om te beginnen herschrijven we het eerste inproduct:
\[\begin{array}{rcl}\dotprod{\vec{u}_i}{(U\,D\, V^\top\vec{v}_j)} &=& \dotprod{U^\top \vec{u}_i}{(D\,V^\top\vec{v}_j)} \\ &=& \dotprod{U^{-1} \vec{u}_i}{(D\,V^{-1}\vec{v}_j)} \\ &=&\dotprod{\vec{e}_i}{(D\vec{e}_j)}\end{array}\]
Als #j\gt r# dan geldt #\dotprod{\vec{u}_i}{(U\,D\, V^\top\vec{v}_j)}=0=\dotprod{\vec{u}_i}{(A\vec{v}_j)}# omdat #A\vec{v}_j=\vec{0}# en #D\vec{e}_j = \vec{0}#. Het zelfde geldt als #i\gt r#, want dan hebben we #A^\top\vec{u}_i=\vec{0}# en #D^\top U^\top \vec{u}_i=D^\top\vec{e}_i=\vec{0}#. We nemen daarom aan dat #i,j\le r#. Nu geldt
\[\begin{array}{rcl}\dotprod{\vec{u}_i}{(U\,D\, V^\top\vec{v}_j)} &=&\dotprod{\vec{e}_i}{(D\vec{e}_j)}\\&=&\dotprod{\vec{e}_i}{(\lambda_j^{\frac12}\vec{e}_j)}\\ &= &\lambda_j^{\frac12}\delta_{ij}\\ &=& \lambda_j^{\frac12}\dotprod{\vec{u}_i}{\vec{u}_j}\\ &=&\dotprod{\vec{u}_i}{(A\vec{v}_j)} \end{array} \]
We concluderen dat #U\,D\, V^\top\vec{v}_j# en #A\vec{v}_j# hetzelfde inproduct hebben met elke kolomvector van #U#. Deze kolommen vormen een basis voor #\mathbb{R}^m#, dus dit betekent dat #U\,D\, V^\top\vec{v}_j=A\vec{v}_j# geldt voor elke #j#. Omdat #U\,D\, V^\top# en #A# dezelfde beelden hebben op elke kolomvector van #V# en deze kolommen een basis vormen voor #\mathbb{R}^n#, is hiermee vastgesteld dat #U\,D\, V^\top=A#.
Om de uitspraak over de opbouw van #U# af te leiden, gebruiken we de gelijkheid
\[ A\, A^\top =U\,D\, V^\top\left(U\,D\, V^\top\right)^\top=U\,D\, V^\top\left(V\,D^\top\, U^\top\right)=U\,D\, V^{-1}V\,D^\top\, U^{-1}=U\, (D\, D^\top) U^{-1}\]De matrix #D\,D^\top# is een diagonaalmatrix. Dit laat zien dat de kolommen van #U# een orthonormale basis van eigenvectoren van #A\,A^\top# vormen. De uitspraak over de opbouw van #V# kan op vergelijkbare wijze afgeleid worden uit de gelijkheid \(A^\top A =V\,(D^\top D)V^{-1}\).
Tenslotte leiden we nog de schrijfwijze van #A# als een som van rang-één matrices af:
\[\begin{array}{rcl}A &= &U\, D\, V^\top \\ &=&\displaystyle\sum_{j=1}^m\matrix{\vec{0}&\cdots&\vec{0}&\vec{u}_j&\vec{0}&\cdots&\vec{0}}D\, \matrix{\vec{v}_1^\top\\ \vec{v}_2^\top\\ \vdots \\ \vec{v}_n^\top}\\ &=&\displaystyle\sum_{j=1}^r \lambda_j^{\frac12}\matrix{\vec{0}&\cdots&\vec{0}&\vec{u}_j&\vec{0}&\cdots&\vec{0}} \matrix{\vec{v}_1^\top\\ \vec{v}_2^\top\\ \vdots \\\vec{v}_n^\top}\\&=&\displaystyle\sum_{j=1}^r \lambda_j^{\frac12}{\vec{u}_j} {\vec{v}_j^\top}\\\end{array}\]
Het bewijs van de stelling geeft een methode om een singuliere waarden ontbinding #U\,D\,V^\top# voor een #(m\times n)#-matrix #A# te vinden. Laat #r# de rang van #A# zijn.
- Bereken #A^\top A# en diens eigenwaarden #\lambda_j\gt0# in afnemende grootte voor #j=1,\ldots,r#.
- Voor #D# nemen we de gegeneraliseerde diagonaalmatrix van afmetingen #m\times n# met op de diagonaal de singuliere waarden #\sqrt{\lambda_j}# voor #j=1,\ldots,r# zonodig aangevuld met nullen.
- Voor #V# nemen we een matrix waarvan de kolommen een orthonormale basis #\basis{\vec{v}_1,\vec{v}_2,\dots,\vec{v}_n}# van eigenvectoren vormen van #A^\top A# bij eigenwaarden #\lambda_j\ge0# voor #j=1,\ldots,n#.
- Voor #U# definiëren we #\vec{u}_j=\lambda_j^{-\frac12}A\vec{v}_j# als #j\le r# (dat wil zeggen: als #\lambda_j\gt0#). We krijgen zo een orthonormaal stelsel (in #\mathbb {R}^m#) dat we gebruiken voor de kolommen van #U#. Zo nodig vullen we dit stelsel aan tot een orthonormale basis, waarmee we de overige kolommen van #U# vullen.
De singuliere waarden ontbinding heet in het Engels singular value decomposition. Dit wordt in de literatuur vaak afgekort tot SVD.
We bepalen een singuliere waarden ontbinding voor de matrix \[A=\left(\begin{array}{rrr}14&16&4\\ -2&-13&-22\end{array}\right)\] De matrix \[A^\top A=\matrix{200&250&100\\ 250&425&350\\ 100&350&500}\] met eigenwaarden #\lambda_1=900#, #\lambda_2=225# en #\lambda_3=0#, en orthonormale basis van eigenvectoren:
\[\vec{v}_1=\frac13\cv{1\\2\\2},\qquad\vec{v}_2=\frac13\cv{2\\1\\-2},\qquad\vec{v}_3=\frac13\cv{2\\-2\\1}\]We vinden #\sqrt{\lambda_1}=30# en #\sqrt{\lambda_2}=15#, en #\vec{u}_1=\frac1{30}A\vec{v}_1=\frac15\cv{3\\-4}# en #\vec{u}_2=\frac1{15}A\vec{v}_2=\frac15\cv{4\\3}#. Dus
\[\matrix{14&16&4\\ -2&-13&-22} = \matrix{\frac35 &\frac45 \\
-\frac45&\frac35}\, \matrix{30&0&0\\ 0&15&0}\,
\matrix{\frac13&\frac23&\frac23\\ \frac23&\frac13&-\frac23\\ \frac23&-\frac23&\frac13}\]Verder is #A=30\vec{u}_1\vec{v}_1^\top+15\vec{u}_2\vec{v}_2^\top=\left(\begin{array}{rrr}6&12&12\\ -8&-16&-16
\end{array}\right)+\left(\begin{array}{rrr}8&4&-8\\ 6&3&-6 \end{array}\right)#.
Volgens de stelling Diagonaliseerbaarheid van symmetrische matrices heeft een symmetrische matrix #A# een ontbinding #A=X^{-1} \, D\, X = U\, D\, U^\top #, met #U=X^{-1}# een orthogonale matrix en #D# een diagonaalmatrix. De diagonaalelementen van #D# zijn dan de eigenwaarden van #A#. Als alle eigenwaarden van #A# niet-negatief zijn, dan is deze ontbinding een singuliere waarden ontbinding #A = U\, D\, U^\top# met #V = U#. In het algemeen kunnen we dezelfde matrix #U# nemen als hierboven, #D# vervangen door #D\, T# en #V=U\,T# nemen, waarbij #T# een geschikte diagonaalmatrix is met uitsluitend #\pm1# op de diagonaal, om een singuliere waarden ontbinding van #A# te krijgen.
De singuliere waarden ontbinding is niet uniek: in het algoritme kunnen we een genormaliseerde eigenvector door de negatieve ervan vervangen en de orthonormale bases voor de kernen van #A^\top A# en #A\, A^\top# geven keuzevrijheid. Dankzij de ordening naar grootte van de diagonaalelementen is de matrix #D# wel uniek.
Bereken de singuliere waarden ontbinding van de matrix
\[ A = \matrix{4 & -2 \\ 2 & -1 \\ 0 & 0 \\ } \]
\(\matrix{4 & -2 \\ 2 & -1 \\ 0 & 0 \\ } =\) \( \matrix{{{2}\over{\sqrt{5}}} & 0 & -{{1}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} & 0 & {{2}\over{\sqrt{5}}} \\ 0 & -1 & 0 \\ }\, \matrix{5 & 0 \\ 0 & 0 \\ 0 & 0 \\ } \, \matrix{{{2}\over{\sqrt{5}}} & -{{1}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} & {{2}\over{\sqrt{5}}} \\ } \)
We berekenen eerst het matrixproduct
\[\begin{array}{rcl}
A^\top A &=& \matrix{20 & -10 \\ -10 & 5 \\ }\end{array}\]De karakteristieke veelterm van deze matrix is \(p_{ A^\top A }(x) = \left(x-25\right)\cdot x \). De eigenwaarden van # A^\top A# zijn de oplossingen van de karakteristieke vergelijking van deze matrix. Dit zijn #{\left[ 25 , 0 \right] }#. De singuliere waarden zijn de vierkantswortels van de eigenwaarden ongelijk aan #0#. De enige singuliere waarde is #{5}#. De matrix #D# in de singuliere waarden decompositie is dus
\[D = \matrix{5 & 0 \\ 0 & 0 \\ 0 & 0 \\ }\]Om de matrix #V# te vinden, zoeken we een orthonormale basis van eigenvectoren van #A^\top A#. Bepaling van orthonormale bases voor de kern van #A^\top A-\lambda \, I_2# voor #\lambda= 5 , 0 # geeft\[ \begin{array}{ll} \\ \text{ eigenwaarde } 5 :&\matrix{{{2}\over{\sqrt{5}}} \\ -{{1}\over{\sqrt{5}}} \\ } , \\ \text{ eigenwaarde } 0 :&\matrix{{{1}\over{\sqrt{5}}} \\ {{2}\over{\sqrt{5}}} \\ } \end{array}\]Aldus vinden we
\[ V = \matrix{{{2}\over{\sqrt{5}}} & {{1}\over{\sqrt{5}}} \\ -{{1}\over{\sqrt{5}}} & {{2}\over{\sqrt{5}}} \\ }\]Om ten slotte de matrix #U# van de singuliere waarden ontbinding te vinden, berekenen we eerst het beeld #D_{11}^{-1}A\vec{v}_1# waarbij #\vec{v}_1# de eerste kolom van #V# is en #D_{11}= 5 # het eerste diagonaalelement van #D# is. Dit beeld levert de eerste kolom van #U#:\[ \matrix{{{2}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} \\ 0 \\ } \] Dan bepalen we nog een orthonormale basis voor het orthogonale complement van het opspansel van deze vector en vullen we de al gevonden kolom van #U# aan met deze orthonormale basis:
\[ U = \matrix{{{2}\over{\sqrt{5}}} & 0 & -{{1}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} & 0 & {{2}\over{\sqrt{5}}} \\ 0 & -1 & 0 \\ }\]We hebben hiermee de volgende singuliere waarden ontbinding voor #A# gevonden: \[\matrix{4 & -2 \\ 2 & -1 \\ 0 & 0 \\ } = \matrix{{{2}\over{\sqrt{5}}} & 0 & -{{1}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} & 0 & {{2}\over{\sqrt{5}}} \\ 0 & -1 & 0 \\ }\, \matrix{5 & 0 \\ 0 & 0 \\ 0 & 0 \\ } \, \matrix{{{2}\over{\sqrt{5}}} & -{{1}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} & {{2}\over{\sqrt{5}}} \\ } \]
De bijbehorende schrijfwijze als som van rang-één matrices is
\[\begin{array}{rcl}A& =&\displaystyle\sum_{i=1}^{1}D_{ii}\, \vec{u}_i\,\vec{v}_i^\top \\ & =& 5 \, \matrix{{{2}\over{\sqrt{5}}} \\ {{1}\over{\sqrt{5}}} \\ 0 \\ } \, \matrix{{{2}\over{\sqrt{5}}} & -{{1}\over{\sqrt{5}}} \\ } \\ & =& 5 \, \matrix{{{4}\over{5}} & -{{2}\over{5}} \\ {{2}\over{5}} & -{{1}\over{5}} \\ 0 & 0 \\ } \end{array}\]