复特征值

You are currently browsing articles tagged 复特征值.

在博文有复特征值的实矩阵蕴含旋伸中,我们证明 了若{A}{2\times 2}实矩阵,且有复特征值 {\lambda=a-bi(b\neq 0)}及对应的复特征向量{\mathbf{v}},那么

\displaystyle A=PCP^{-1},

其中{P= \begin{bmatrix} \Re \mathbf{v}&\Im \mathbf{v} \end{bmatrix},C= \begin{bmatrix} a&-b\\ b&a \end{bmatrix}. }

只是,在那篇博文里,我们的证明是使用了复矩阵.现在我们仅使用实矩阵来证明 这个结论.

首先,我们考虑如下问题:已知实矩阵{A}的复特征值和对应的复特征向量,把矩阵 {A}恢复出来.做法如下:因为{A}有特征值{a+bi}以及{a+bi}对应的特征向量 {\mathbf{v}=\Re \mathbf{v}+i\Im \mathbf{v}},因此

\displaystyle A(\mathbf{v})=(a+bi)(\Re \mathbf{v}+i\Im \mathbf{v})=(a\Re \mathbf{v}-b\Im \mathbf{v})+i(b\Re \mathbf{v}+a\Im \mathbf{v}). \ \ \ \ \ (1)

而且,矩阵{A}必有特征值{a-bi}以及{a-bi}对应的特征向量 {\overline{\mathbf{v}}=\Re \mathbf{v}-i\Im \mathbf{v}},因此

\displaystyle A(\overline{\mathbf{v}})=(a-bi)(\Re \mathbf{v}-i\Im \mathbf{v})=(a\Re \mathbf{v}-b\Im \mathbf{v})-i(b\Re \mathbf{v}+a\Im \mathbf{v}) \ \ \ \ \ (2)

(1)+(2),再除以{2},可得

\displaystyle A\left(\frac{\mathbf{v}+\overline{\mathbf{v}}}{2}\right)=A(\Re \mathbf{v})=\frac{A(\mathbf{v})+A(\overline{\mathbf{v}})}{2}=a\Re \mathbf{v}-b\Im \mathbf{v}, \ \ \ \ \ (3)

(1)(2),再除以{2i},可得

\displaystyle A\left(\frac{\mathbf{v}-\overline{\mathbf{v}}}{2i}\right)=A(\Im \mathbf{v})=\frac{A(\mathbf{v})-A(\overline{\mathbf{v}})}{2i}=b\Re \mathbf{v}+a\Im \mathbf{v}, \ \ \ \ \ (4)

 

 

向量{\Re \mathbf{v}}{\Im\mathbf{v}}必定是线性无关的.否 则,{A\left(\frac{\mathbf{v}+\overline{\mathbf{v}}}{2}\right)}{A\left(\frac{\mathbf{v}-\overline{\mathbf{v}}}{2i}\right)}会线性相关, 即存在不全为零的复数{k_1,k_2},使得

\displaystyle k_1A\left(\frac{\mathbf{v}+\overline{\mathbf{v}}}{2}\right)+k_2A\left(\frac{\mathbf{v}-\overline{\mathbf{v}}}{2i}\right)=\mathbf{0},

\displaystyle A\left(k_1 \frac{\mathbf{v+\overline{\mathbf{v}}}}{2}+k_2 \frac{\mathbf{v}-\overline{\mathbf{v}}}{2i}\right)=\mathbf{0}.

因为{\Im \mathbf{v}}是非零向量(否则A不会是实矩阵),因此{\mathbf{v}}{\overline{\mathbf{v}}}必 定线性无关,因此{\mathbf{v+\overline{\mathbf{v}}}}{\mathbf{v}-\overline{\mathbf{v}}}线性无关.因此

\displaystyle k_1 \frac{\mathbf{v+\overline{\mathbf{v}}}}{2}+k_2 \frac{\mathbf{v}-\overline{\mathbf{v}}}{2}\neq \mathbf{0},

这表明,{A}将由向量\mathbf{v}和向量\overline{\mathbf{v}}张成的2维空间中的一个非零向量作用成了一个零向量,这是不可能的(想想为什么?).矛盾.可见,{\Re \mathbf{v}}{\Im \mathbf{v}}线性无关.这个结论表明,{\Re \mathbf{v}}{\Im \mathbf{v}}可以形成{\mathbf{C}^2}的一组基.

 

 

设线性变换{T:\mathbf{C}^2\rightarrow \mathbf{C}^2}在单位正交基底 {\mathcal{A}=\{\mathbf{e}_1,\mathbf{e}_2\}}下的矩阵是{A},则在基底 {\mathcal{B}=\{\Re \mathbf{v},\Im \mathbf{v}\}}下, 线性变换{T}的矩阵是{[T]_{\mathcal{B}}^{\mathcal{B}}= \begin{bmatrix} a&-b\\ b&a \end{bmatrix}=C, } 我们知道,

\displaystyle [T]_{\mathcal{A}}^{\mathcal{A}}=[I]_{\mathcal{B}}^{\mathcal{A}}[T]_{\mathcal{B}}^{\mathcal{B}}[I]_{\mathcal{A}}^{\mathcal{B}},

{A=PCP^{-1}}.

Tags: ,

如下定理来自David C.Lay的《线性代数及其应用》第5.5节.该定理表明,有复特征值的实2阶矩阵和平面上的旋伸矩阵相似.

定理 设{A}{2\times 2}实矩阵,有复特征值{\lambda=a-bi(b\neq 0)}及对应的 {\mathbb{C}^2}中的复特征向量{\mathbf{v}},那么

\displaystyle A=PCP^{-1},

其中{P=[\Re \mathbf{v},\Im \mathbf{v}]},{C= \begin{bmatrix} a&-b\\ b&a \end{bmatrix} }.{\Re \mathbf{v}}代表向量{\mathbf{v}}的实部向量,{\Im \mathbf{v}}代表 {\mathbf{v}}的虚部向量.

证明: 设矩阵{A}对应于 {\lambda_{1}=a-bi}的复特征向量{\mathbf{v}_{1}= \begin{bmatrix} u_1\\ v_1 \end{bmatrix}+i \begin{bmatrix} u_2\\ v_2 \end{bmatrix}, }其中{u_1,v_1,u_2,v_2\in \mathbf{R}}.实矩阵{A}必定还有特征值 {\lambda_2=\overline{\lambda_1}=a+bi},{\lambda_2}对应于特征向量{\mathbf{v}_2= \begin{bmatrix} u_1\\ v_1 \end{bmatrix}-i \begin{bmatrix} u_2\\ v_2 \end{bmatrix}. }

矩阵{C= \begin{bmatrix} a&-b\\ b&a \end{bmatrix} }有两个特征值,其中特征值{a-bi}对应于特征向量{\mathbf{w}_1= \begin{bmatrix} 1\\ i \end{bmatrix}, }特征值{a+bi}对应于特征向量{ \mathbf{w}_{2}=\begin{bmatrix} 1\\ -i \end{bmatrix} }.

记矩阵{C}的特征向量{\{\mathbf{w}_1,\mathbf{w}_2\}}形成基底{\mathcal{C}},矩阵{A}的特征向量{\{\mathbf{v}_1,\mathbf{v}_2\}}形成基底{\mathcal{A}}.且设标准正交基底{\{\mathbf{e}_1,\mathbf{e}_2\}}{\mathcal{E}}.设线性变 换{T_{1}:\mathbb{C}^2\rightarrow\mathbb{C}^2}在标准正交基底{\mathcal{E}}下的矩阵为 {A},即{[T_{1}]_{\mathcal{E}}^{\mathcal{E}}=A},设线性变换{T_2}在标准正交基{\mathcal{E}}下的矩阵为{C},即{[T_2]_{\mathcal{E}}^{\mathcal{E}}=C}.则{[T_{1}]_{\mathcal{A}}^{\mathcal{A}}=[T_{2}]_{\mathcal{C}}^{\mathcal{C}}= \begin{bmatrix} a-bi&0\\ 0&a+bi \end{bmatrix} }.

下面研究矩阵{A}{C}的关系,即研究矩阵 {[T_1]_{\mathcal{E}}^{\mathcal{E}}}和矩阵 {[T_2]_{\mathcal{E}}^{\mathcal{E}}}的关系.

\displaystyle [T_1]_{\mathcal{E}}^{\mathcal{E}}=[I]_{\mathcal{A}}^{\mathcal{E}}[T_1]_{\mathcal{A}}^{\mathcal{A}}[I]_{\mathcal{E}}^{\mathcal{A}},

\displaystyle [T_2]_{\mathcal{E}}^{\mathcal{E}}=[I]_{\mathcal{C}}^{\mathcal{E}}[T_2]_{\mathcal{C}}^{\mathcal{C}}[I]_{\mathcal{E}}^{\mathcal{C}},

结合 {[T_1]_{\mathcal{A}}^{\mathcal{A}}=[T_2]_{\mathcal{C}}^{\mathcal{C}}} 可得

\displaystyle [T_1]_{\mathcal{E}}^{\mathcal{E}}=[I]_{\mathcal{A}}^{\mathcal{E}}[I]_{\mathcal{E}}^{\mathcal{C}}[T_2]_{\mathcal{E}}^{\mathcal{E}}[I]_{\mathcal{C}}^{\mathcal{E}}[I]_{\mathcal{E}}^{\mathcal{A}}=([I]_{\mathcal{A}}^{\mathcal{E}}[I]_{\mathcal{E}}^{\mathcal{C}})[T_2]_{\mathcal{E}}^{\mathcal{E}}([I]_{\mathcal{A}}^{\mathcal{E}}[I]_{\mathcal{E}}^{\mathcal{C}})^{-1}

\displaystyle [I]_{\mathcal{A}}^{\mathcal{E}}[I]_{\mathcal{E}}^{\mathcal{C}}= \begin{bmatrix} u_1+iu_2&u_1-iu_2\\ v_1+iv_2&v_1-iv_2 \end{bmatrix} \begin{bmatrix} 1&1\\ i&-i \end{bmatrix}^{-1}=\begin{bmatrix} u_1+iu_2&u_1-iu_2\\ v_1+iv_2&v_1-iv_2 \end{bmatrix} \begin{bmatrix} \frac{1}{2}&-\frac{i}{2}\\ \frac{1}{2}&\frac{i}{2} \end{bmatrix}= \begin{bmatrix} u_1&u_2\\ v_1&v_2 \end{bmatrix}=P.

因此

\displaystyle A=PCP^{-1}.

\Box

Tags: ,