Invariante deelruimten van lineaire afbeeldingen: Eigenwaarden en eigenvectoren
Bepaling eigenwaarden en eigenvectoren
Onderstaande stelling laat zien dat we een maximaal stel lineair onafhankelijke eigenvectoren kunnen vinden door dat werk voor elke eigenwaarde apart te doen.
Onafhankelijkheid van eigenvectoren bij verschillende eigenwaarden
Laat #V# een vectorruimte zijn en # L :V\rightarrow V# een lineaire afbeelding. Stel dat #\lambda_1,\ldots ,\lambda_n# onderling verschillende eigenwaarden van #L# zijn. Stel verder dat #\alpha_i# een stel lineair onafhankelijke eigenvectoren van # E_i = \ker{L-\lambda_i\,I_V}# is voor #i=1,\ldots,n#. Dan is de vereniging van #\alpha_1,\ldots,\alpha_n# lineair onafhankelijk.
Het bepalen van eigenwaarden en eigenvectoren kan dus als volgt geschieden.
Laat #V# een #n#-dimensionale vectorruimte zijn, waarbij #n# een natuurlijk getal is, en laat #L:V\to V# een lineaire afbeelding zijn. De eigenwaarden van #L# en een maximaal stel lineair onafhankelijke eigenvectoren kunnen als volgt gevonden worden:
- Stel de matrix #A = L_{\alpha}# op van de lineaire afbeelding # L :V \rightarrow V# ten opzichte van een basis #\alpha# naar keuze.
- Stel de karakteristieke vergelijking #\det (A-\lambda \cdot I_n)=0# op en los deze op.
- Los voor elke eigenwaarde #\lambda# het stelsel #(A-\lambda\cdot I_n)\vec{v}=\vec{0}# op. Elke oplossing geeft de coördinaten van een vector uit #E_{\lambda}#. De oplossingen vormen de eigenruimte #E_{\lambda}#. Kies een basis van deze oplossingsruimte. De vereniging van deze bases voor alle eigenwaarden is een maximaal stel lineair onafhankelijke eigenvectoren, maar wel in termen van coördinaten ten opzichte van de basis #\alpha#.
- Ga desgewenst terug van coördinaten naar vectoren in #V#.
Enkele van onderstaande voorbeelden laten zien dat een gegeven lineaire afbeelding # L :V \rightarrow V# niet altijd een basis van eigenvectoren heeft, zodat # L# niet altijd door een diagonaalmatrix bepaald is. Toch kunnen we vaak nog wel een redelijk eenvoudige vorm van de matrix vinden. We gaan daar later verder op in.
- Eigenwaarden: #\lambda =1# en #\lambda =0#
- Eigenruimten: #E_1 = \linspan{3\vec{e}_1+2\vec{e}_2}# en #E_0 =\linspan{2\vec{e}_1-3\vec{e}_2}#
De matrix van de gegeven projectie is
\[ A = \frac{1}{13}\matrix{9 & 6\\ 6 & 4}\]Het spoor van deze matrix is #1# en de determinant is nul, zodat de karakteristieke veelterm gelijk is aan \[\lambda^2-\text{tr}(A)\lambda+\det(A) = \lambda^2-\lambda \] Bijgevolg is de karakteristieke vergelijking gelijk aan \[\lambda^2-\lambda = 0\]De karakteristieke veelterm is natuurlijk ook te berekenen door gebruik te maken van de definitie:
\[ \begin{array}{rcl}\left| \matrix{\ \frac{9}{13}-\lambda&\ \frac{6}{13}\\
\ \frac{6}{13}&\ \frac{4}{13} -\lambda} \right| &=&\ \frac{1}{169} \left|\matrix{9-13\lambda & 6\\ 6 & 4-13\lambda}\right| \\ &=&\ \frac{1}{169}\Big((9-13\lambda)\cdot(4-13\lambda)-36\Big)\\ &=&\lambda^2-\lambda \end{array}
\]De karakteristieke vergelijking heeft dus twee wortels: #\lambda=1# en #\lambda=0#. Dit zijn de eigenwaarden van #A#.
De eigenruimte bij #\lambda =1# vinden we door de kern van #A- I_2# te bepalen. Dit komt neer op het oplossen van het stelsel vergelijkingen met coëfficiëntenmatrix
\[A-I_2 = \left(\begin{array}{cc}\frac{9}{13} - 1 & \frac{6}{13}\\ \frac{6}{13} & \frac{4}{13} -1 \end{array} \right) \sim \left(\begin{array}{rr} -4 & 6\\ 6 & -9\end{array} \right) \sim \left(\begin{array}{rr} 2 & -3 \\ 0 & 0 \end{array} \right)
\]dus de vergelijking wordt #2x-3y=0# (dat is #\ell#, verrassend?). Alle oplossingen #\rv{x,y}# zijn dus scalaire veelvouden van #\rv{3,2}#, zodat
\[
E_1 = \linspan{3\vec{e}_1+2\vec{e}_2} \quad (=\ell )
\]De eigenruimte bij #\lambda =0# vinden we door de kern van #A# te bepalen. Dit komt neer op het oplossen van het stelsel vergelijkingen met coëfficiëntenmatrix
\[A =
\matrix{
\frac{9}{13} - 0 & \frac{6}{13}\\
\frac{6}{13} & \frac{4}{13} -0
} \sim \matrix{9 & 6\\ 6 & 4} \sim \matrix{
3 & 2 \\
0 & 0
}
\]dus de vergelijking wordt #3x+2y=0#. Alle oplossingen #\rv{x,y}# zijn dus scalaire veelvouden van #\rv{2, -3}#, zodat
\[
E_0=\linspan{2\vec{e}_1-3\vec{e}_2}\quad (=\ell^{\perp})
\]
\[
\matrix{
1 & 0\\
0 & 0}
\] Net als de oorspronkelijke matrix heeft deze matrix spoor #1# en determinant #0#.
omptest.org als je een OMPT examen moet maken.