特征值

You are currently browsing articles tagged 特征值.

5.1:特征向量与特征值

例4 {A= \begin{bmatrix} 4&-1&6\\ 2&1&6\\ 2&-1&8 \end{bmatrix} },{A}的一个特征值是{2},求对应的特征空间的一个基.

解:

\displaystyle A-2I= \begin{bmatrix} 2&-1&6\\ 2&-1&6\\ 2&-1&6 \end{bmatrix}.

\displaystyle \begin{bmatrix} 2&-1&6\\ 2&-1&6\\ 2&-1&6 \end{bmatrix} \begin{bmatrix} x\\ y\\ z \end{bmatrix}=0,

上式可化为

\displaystyle \begin{bmatrix} 2&-1&6\\ 0&0&0\\ 0&0&0 \end{bmatrix} \begin{bmatrix} x\\ y\\ z\\ \end{bmatrix}=0,

其中{y,z}是自由变 量.令{y=0,z=1},解得{x=-3};令{y=1,z=0},解得{x=\frac{1}{2}}.所以特征 值{2}对应的特征空间的一组基为

\displaystyle \begin{bmatrix} -3\\ 0\\ 1 \end{bmatrix}, \begin{bmatrix} \frac{1}{2}\\ 1\\ 0 \end{bmatrix}.

{\mathbf{x}}的实部是{A}的特征向量是显然的.而且,如果{x}的虚部不是零向量,则虚部也是{A}的特征向量. \Box

定理2 {\lambda_1,\cdots,\lambda_{r}}{n\times n}矩阵{A}相异的特征 值,{\mathbf{v}_1,\cdots,\mathbf{v}_{r}}是与 {\lambda_1,\cdots,\lambda_{r}}对应的特征向量,那么向量集 合{\{\mathbf{v}_1,\cdots,\mathbf{v}_{r}\}}线性无关.

证明: 证明使用数学归纳法.当{r=2}时,非零向量{\mathbf{v}_1,\mathbf{v}_2}必定 线性无关,否则,假设{\mathbf{v}_1,\mathbf{v}_2}线性相关,则存在非零实 数{k},使得{\mathbf{v}_1=k\mathbf{v}_2}.则 {A(\mathbf{v}_1)=\lambda_1\mathbf{v}_1=k\lambda_1\mathbf{v}_2},且 {A(\mathbf{v}_1)=A(k\mathbf{v}_2)=kA(\mathbf{v}_2)=k\lambda_2\mathbf{v}_2}.则 {k\lambda_2\mathbf{v}_2=k\lambda_1\mathbf{v}_2},于是 {\lambda_1=\lambda_2},矛盾.

假设{r=n}时,{\{\mathbf{v}_1,\cdots,\mathbf{v}_n\}}线性无关.我们来证 明,{r=n+1}时,{\{\mathbf{v}_1,\cdots,\mathbf{v}_n,\mathbf{v}_{n+1}\}} 也线性无关.否则,必定存在不全为零的实数{k_1,\cdots,k_{n}},使得

\displaystyle \mathbf{v}_{n+1}=k_1\mathbf{v}_1+\cdots+k_n\mathbf{v}_n

\displaystyle A(\mathbf{v}_{n+1})=A(k_1\mathbf{v}_1+\cdots+k_n\mathbf{v}_n)=k_1A(\mathbf{v}_1)+\cdots+k_nA(\mathbf{v}_n)=\lambda_1k_1\mathbf{v}_1+\cdots+\lambda_nk_n\mathbf{v}_n=\lambda_{n+1}\mathbf{v}_{n+1}.

  • {\lambda_{n+1}=0}时,{\lambda_1,\cdots,\lambda_n\neq 0},则{\lambda_1k_1,\cdots,\lambda_nk_n}不全为零,则

    \displaystyle \lambda_1k_1\mathbf{v}_1+\cdots+\lambda_nk_n\mathbf{v}_n=\mathbf{0}

    {\mathbf{v}_1,\cdots,\mathbf{v}_n}线性无关矛盾.

  • {\lambda_{n+1}\neq 0}时,则

    \displaystyle \mathbf{v}_{n+1}=\frac{\lambda_1}{\lambda_{n+1}}k_1\mathbf{v}_1+\cdots+\frac{\lambda_n}{\lambda_{n+1}}k_n\mathbf{v}_n,

    由于{\mathbf{v}_1,\cdots,\mathbf{v}_n}线性无 关,因此{\lambda_1=\cdots=\lambda_n=\lambda_{n+1}},这与 {\lambda_1,\cdots,\lambda_{n+1}}全不相等矛盾.

综上,由数学归纳法,命题对于任意不小于{2}的正整数{n}成立. \Box

习题5.2.18 能够证明特征值{\lambda}的代数重数大于或等于其特征空间的维数.求下面矩 阵{A}中的{h},使{\lambda=5}的特征空间是{2}维的.

\displaystyle A= \begin{bmatrix} 5&-2&6&-1\\ 0&3&h&0\\ 0&0&5&4\\ 0&0&0&1 \end{bmatrix}.

 

解: {\lambda=5}的特征空间即矩阵

\displaystyle A-5I= \begin{bmatrix} 0&-2&6&-1\\ 0&-2&h&0\\ 0&0&0&4\\ 0&0&0&-4 \end{bmatrix}

的零空间.为了使得{A-5I}的零空间的维数为{2},必须使得{h=6},否则{A-5I}的零 空间就会成为{1}维的. \Box

第5.2节,例3 可能的话,将下面矩阵对角化

\displaystyle A= \begin{bmatrix} 1&3&3\\ -3&-5&-3\\ 3&3&1 \end{bmatrix}.

 

解: 先求矩阵{A}的特征值和对应的特征向量.设矩阵{A}的特征值为{\lambda},则

\displaystyle \begin{vmatrix} 1-\lambda&3&3\\ -3&-5-\lambda&-3\\ 3&3&1-\lambda \end{vmatrix}=0,

解得{\lambda=-2}{\lambda=-2}{\lambda=1}.特征值{1}对应的一个特征向 量为{(1,-1,1)}.特征值{-2}的特征空间的一组基底中的两个向量为 {(1,0,-1),(0,1,-1)}.所以矩阵{A}可对角化如下:令矩阵{P= \begin{bmatrix} 1&1&0\\ -1&0&1\\ 1&-1&-1 \end{bmatrix} },其中{P}的三个列向量就是矩阵{A}的三个特征向量.则{P^{-1}= \begin{bmatrix} 1&1&1\\ 0&-1&-1\\ 1&2&1 \end{bmatrix} }.因此

\displaystyle A= \begin{bmatrix} 1&1&0\\ -1&0&1\\ 1&-1&-1 \end{bmatrix} \begin{bmatrix} 1&0&0\\ 0&-2&0\\ 0&0&-2 \end{bmatrix} \begin{bmatrix} 1&1&1\\ 0&-1&-1\\ 1&2&1 \end{bmatrix}.

\Box

第5.3节例6 可能的话,将下列矩阵对角化.

\displaystyle A= \begin{bmatrix} 5&0&0&0\\ 0&5&0&0\\ 1&4&-3&0\\ -1&-2&0&-3 \end{bmatrix}.

解: 矩阵{A}的特征值是{5,5,-3,-3}.特征值{5}对应的特征空间的一组基为

\displaystyle \begin{bmatrix} 0\\ 4\\ 2\\ -1 \end{bmatrix}, \begin{bmatrix} 16\\ 4\\ 4\\ -3 \end{bmatrix}.

特征值{-3}对应的特征空间的一组基为

\displaystyle \begin{bmatrix} 0\\ 0\\ 1\\ 0 \end{bmatrix}, \begin{bmatrix} 0\\ 0\\ 0\\ 1 \end{bmatrix}.

所以矩阵{A}可以对角化.令矩阵{P= \begin{bmatrix} 0&16&0&0\\ 4&4&0&0\\ 2&4&1&0\\ -1&-3&0&1 \end{bmatrix} },则{P^{-1}= \begin{bmatrix} -\frac{1}{16}&\frac{1}{4}&0&0\\ \frac{1}{16}&0&0&0\\ -\frac{1}{8}&-\frac{1}{2}&1&0\\ \frac{1}{8}&\frac{1}{4}&0&1 \end{bmatrix} }(逆矩阵计算过程的草稿如下图所示). 因此

\displaystyle A= \begin{bmatrix} 0&16&0&0\\ 4&4&0&0\\ 2&4&1&0\\ -1&-3&0&1 \end{bmatrix} \begin{bmatrix} 5&0&0&0\\ 0&5&0&0\\ 0&0&-3&0\\ 0&0&0&-3 \end{bmatrix} \begin{bmatrix} -\frac{1}{16}&\frac{1}{4}&0&0\\ \frac{1}{16}&0&0&0\\ -\frac{1}{8}&-\frac{1}{2}&1&0\\ \frac{1}{8}&\frac{1}{4}&0&1 \end{bmatrix}

\Box

习题5.3.21(a) 判断正误:若存在矩阵{D}和可逆矩阵{P}使{A=PDP^{-1}}成立,则{A}可对角化.

解: 错.反例:令{P}为二阶单位矩阵,{D= \begin{bmatrix} 1&1\\ 0&1 \end{bmatrix} },则{A=D= \begin{bmatrix} 1&1\\ 0&1 \end{bmatrix} },但是矩阵{A}不可对角化.事实上,矩阵{A}代表一个剪切变换,而可对角化矩阵代表一个伸缩变换. \Box

5.4:特征向量与线性变换

例1 {\mathcal{B}=\{\mathbf{b}_1,\mathbf{b}_2\}}{V}的 基,{\mathcal{C}=\{\mathbf{c}_1,\mathbf{c}_2,\mathbf{c}_3\}}{W}的 基.{T}{V\rightarrow W}的线性变换,

\displaystyle T(\mathbf{b})=3\mathbf{c}_1-2\mathbf{c}_2+5\mathbf{c}_3,T(\mathbf{b}_2)=4\mathbf{c}_1+7\mathbf{c}_2-\mathbf{c}_{3}

{T}相对于基{\mathcal{B}}{\mathcal{C}}的矩阵{M}.

解: {M=[T]_{\mathcal{B}}^{\mathcal{C}}= \begin{bmatrix} 3&4\\ -2&7\\ 5&-1 \end{bmatrix} }. \Box

例2 {\mathbb{P}_2\rightarrow \mathbb{P}_2}的映射{T(a_0+a_1t+a_2t^2)=a_1+2a_2t}是线性变换(学过微积分的学生知道{T}是微分算子.)

  • 当基{\mathcal{B}=\{1,t,t^2\}}时,求{T}{\mathcal{B}-}矩阵.
  • {\mathbb{P}_2}中的每个{\mathbf{p}},验证{[T(\mathbf{p})]_{\mathcal{B}}=[T]_{\mathcal{B}}[\mathbf{p}]_{\mathcal{B}}}.

 

解:

  • {[T]_{\mathcal{B}}^{\mathcal{B}}= \begin{bmatrix} 0&1&0\\ 0&0&2\\ 0&0&0 \end{bmatrix} }.
  • 对于{\mathbf{p}=a_0+a_1t+a_2t^2},{[T(\mathbf{p})]_{\mathcal{B}}= \begin{bmatrix} a_{1}\\ 2a_{2}\\ 0 \end{bmatrix} },{[\mathbf{p}]_{\mathcal{B}}= \begin{bmatrix} a_0\\ a_1\\ a_2 \end{bmatrix} },容易验证

    \displaystyle [T]_{\mathcal{B}}^{\mathcal{B}}[\mathbf{p}]_{\mathcal{B}}=[T(\mathbf{p})]_{\mathcal{B}}

\Box

习题5.4.10 定义{\mathbb{P}_3\rightarrow \mathbb{R}^4}的变换{T}{T(\mathbf{\mathbf{p}})= \begin{bmatrix} \mathbf{p}(-3)\\ \mathbf{p}(-1)\\ \mathbf{p}(1)\\ \mathbf{p}(3) \end{bmatrix} }.

  • 证明{T}是线性变换.
  • {T}相对于{\mathbb{P}_3}的基{\{1,t,t^2,t^3\}}{\mathbb{R}^4}的 标准基的矩阵.

 

解:

  • {\mathbf{p}_1(t)=a_{0}+a_1t+a_{2}t^{2}+a_{3}t^{3},\mathbf{p}_2(t)=b_0+b_1t+b_2t^2+b_3t^3}, 则

    \displaystyle \mathbf{p}_1(t)+\mathbf{p}_2(t)=(a_0+b_0)+(a_1+b_1)t+(a_2+b_2)t^2+(a_3+b_3)t^3=\mathbf{q}(t).

    \displaystyle T(\mathbf{p}_1+\mathbf{p}_2)= \begin{bmatrix} \mathbf{q}(-3)\\ \mathbf{q}(-1)\\ \mathbf{q}(1)\\ \mathbf{q}(3) \end{bmatrix}= \begin{bmatrix} \mathbf{p}_1(-3)\\ \mathbf{p}_1(-1)\\ \mathbf{p}_1(1)\\ \mathbf{p}_1(3) \end{bmatrix}+ \begin{bmatrix} \mathbf{p}_2(-3)\\ \mathbf{p}_2(-1)\\ \mathbf{p}_2(1)\\ \mathbf{p}_2(3) \end{bmatrix}=T(\mathbf{p}_1)+T(\mathbf{p}_2),

    且易得{\forall k\in \mathbb{R}},{T(k\mathbf{p})=kT(\mathbf{p})}.因此 {T}是线性变换.

  • {\mathcal{A}=\{1,t,t^2,t^3\}},{\mathcal{B}=\{\mathbf{e}_1,\mathbf{e}_2,\mathbf{e}_3,\mathbf{e}_4\}}, 则{[T]_{\mathcal{A}}^{\mathcal{B}}= \begin{bmatrix} 1&-3&9&-27\\ 1&-1&1&-1\\ 1&1&1&1\\ 1&3&9&27 \end{bmatrix} }.

\Box

习题5.4.25 方阵{A}主对角线元素之和称为{A}的迹,记为{trace(A)}.可以证明对任意的两个 {n\times n}矩阵{F}{G},有{trace(FG)=trace(GF)}.证明,若{A}{B}相似,则{trace(A)=trace(B)}.

证明:

  • {trace(FG)=trace(GF)}是简单机械的验证:设矩阵{F=(a_{ij}),1\leq i,j\leq n},{G=(b_{ij}),1\leq i,j\leq n}.则

    \displaystyle trace(FG)=\sum_{i=1}^n\sum_{j=1}^na_{ij}b_{ji}=\sum_{j=1}^n\sum_{i=1}^nb_{ji}a_{ij}=trace(GF).

  • {A,B}相似,则存在可逆矩阵{P},使得{A=PBP^{-1}}.则

    \displaystyle trace(A)=trace(PBP^{-1})=trace(PP^{-1}B)=trace(B).

\Box

5.5:复特征值

练习题 证明:若{a}{b}是实数,则{A= \begin{bmatrix} a&-b\\ b&a \end{bmatrix} }的特征值是{a\pm bi},对应的特征向量是{ \begin{bmatrix} 1\\ -i \end{bmatrix} }{ \begin{bmatrix} 1\\ i \end{bmatrix} }.

证明:{A}的特征值是{\lambda},则

\displaystyle \begin{vmatrix} a-\lambda&-b\\ b&a-\lambda \end{vmatrix}=0,

解得{\lambda=a\pm bi}.{a+bi}对应于特征向量{ \begin{bmatrix} 1\\ -i \end{bmatrix} },{a-bi}对应于特征向量{ \begin{bmatrix} 1\\ i \end{bmatrix} }. \Box

习题5.2.24 {n\times n}实矩阵{A}有性质{A^T=A}.证明,若对非零向量{\mathbf{x}\in \mathbf{C}^n}{A\mathbf{x}=\lambda \mathbf{x}},则{\lambda}是实数,而 {\mathbf{x}}的实部是{A}的特征向量.

证明: {\overline{\mathbf{x}}^{T}A\mathbf{x}=\lambda \overline{\mathbf{x}}^T\mathbf{x}}.因为 {\overline{\mathbf{x}}^TA\mathbf{x}}是实 数,{\overline{\mathbf{x}}^T\mathbf{x}}是正实数,因此{\lambda}是实数. \Box

习题5.5.25 {A}{n\times n}实矩阵,{x\in \mathbb{C}^n},证明{\Re (A\mathbf{x})=A(\Re \mathbf{x})}{\Im(A\mathbf{x})=A(\Im \mathbf{x})}.

证明:

\displaystyle A(\Re \mathbf{x})=A(\frac{\mathbf{x}+\bar{\mathbf{x}}}{2})=\frac{1}{2}A(\mathbf{x})+\frac{1}{2}A(\bar{\mathbf{x}})=\frac{1}{2}A(\mathbf{x})+\frac{1}{2}\overline{A(\mathbf{x})}=\Re (A\mathbf{x}),

\displaystyle A(\Im \mathbf{x})=A(\frac{\mathbf{x}-\overline{\mathbf{x}}}{2})=\frac{1}{2}A\mathbf{x}-\frac{1}{2}A\overline{\mathbf{x}}=\frac{1}{2}A\mathbf{x}-\frac{1}{2}\overline{A\mathbf{x}}=\Im (A\mathbf{x}).

\Box

习题5.5.26 {A}{2\times 2}实矩阵,有复特征值{\lambda=a-bi(b\neq 0)}和对应 {\mathbb{C}^2}中的复特征向量{\mathbf{v}},

  • 证明{A(\Re \mathbf{v})=a\Re \mathbf{v}+b\Im \mathbf{v}}{A(\Im \mathbf{v})=-b\Re \mathbf{v}+a\Im \mathbf{v}}.
  • 假设{P}{C}是定理9给出的矩阵,则{AP=PC}.

 

证明:

  • {\mathbf{v}=\Re \mathbf{v}+i\Im \mathbf{v}}.则{A(\Re \mathbf{v})=\Re A(\mathbf{v})=\Re [(a-bi)\mathbf{v}]=\Re (a\mathbf{v}-ib\mathbf{v})=a\Re \mathbf{v}+b\Im \mathbf{v}}.

    \displaystyle A(\Im \mathbf{v})=\Im A\mathbf{v}=\Im [(a-bi)\mathbf{v}]=\Im (a\mathbf{v}-i b\mathbf{v})=a\Im \mathbf{v}-b\Re \mathbf{v}.

  • {AP= \begin{bmatrix} A\Re \mathbf{v}&A\Im \mathbf{v} \end{bmatrix}= \begin{bmatrix} a\Re \mathbf{v}+b\Im \mathbf{v}&-b\Re \mathbf{v}+a\Im \mathbf{v} \end{bmatrix}=PC. }

\Box

Tags: , ,

我们知道如果任意一个方阵有特征值,则该特征值的代数重数不会小于几何重数.下 面我们来研究一个特例,以从直观层面更好地理解这个定律.设矩阵{A= \begin{bmatrix} 1&1\\ 0&1 \end{bmatrix} }.可得矩阵{A}的特征值为{1}.该特征值对应的特征空间是{1}维的,该特征空间 由矩阵{A}的特征向量{ \begin{bmatrix} 1\\ 0 \end{bmatrix} }张成.

这说明,矩阵{A}的特征值{1}的代数重数为{2},几何重数却为{1}.这符合“代数 重数不小于几何重数”的定律.

下面,我们对矩阵{A}作一个微扰,变成矩阵{A_{\epsilon}}:

\displaystyle A_{\epsilon}= \begin{bmatrix} 1+\epsilon&1\\ 0&1 \end{bmatrix},

其中{\epsilon\neq 0}.则矩阵{A_{\epsilon}}的特征值为{1+\epsilon}{1}.其中特征值{1+\epsilon}对应的一个特征向量是{ \begin{bmatrix} 1\\ 0 \end{bmatrix} },特征值{1}对应的一个特征向量是{ \begin{bmatrix} 1\\ -\epsilon \end{bmatrix} }.

{\epsilon\rightarrow 0}时,这两个特征向量逐渐靠近.在{\epsilon=0}的极限情形,这 两个特征向量发生了合并.由此导致特征值{1}的代数重数为{2},但是 对应的特征空间的维数却是{1},即使几何重数比代数重数小的情况发生.

Tags: , ,