问题

如何从几何的角度说明对称矩阵的不同特征值对应的特征向量必定是两两正交的?

回答
当然,我们来聊聊对称矩阵的这个迷人性质——不同特征值对应的特征向量,它们之间必然是两两正交的。这个结论,从几何学的角度去理解,会显得格外直观和深刻。

想象一下,我们生活在一个三维空间里(当然,这个结论对更高维度的空间同样成立)。一个对称矩阵,就好比是一个“拉伸”和“旋转”的组合体,但它有一个特别之处:它对空间的影响方式是“对称”的。就像你把一张照片,先沿水平方向拉伸一倍,再沿竖直方向压缩一半,但你如果先沿竖直方向操作,再沿水平方向操作,最终的结果是一样的。

现在,我们来看看特征值和特征向量。特征向量,可以理解为在这个矩阵作用下,方向不会改变的特殊向量。它们就像空间里的一些“主轴”,无论矩阵如何“折腾”它们,它们仅仅会被拉伸(或者压缩),但方向还是保持不变。而特征值,就是描述这个“拉伸”或“压缩”的程度。

假设我们有一个对称矩阵 $A$。它有两个不同的特征值,比如 $lambda_1$ 和 $lambda_2$($lambda_1 eq lambda_2$)。它们各自对应着一个特征向量,我们称之为 $v_1$ 和 $v_2$。

根据特征值的定义,我们知道:
$Av_1 = lambda_1 v_1$
$Av_2 = lambda_2 v_2$

这意味着,当矩阵 $A$ 作用在 $v_1$ 上时,它只是把 $v_1$ 拉长(或缩短)了 $lambda_1$ 倍,方向没变。同理,作用在 $v_2$ 上时,只是把它拉长(或缩短)了 $lambda_2$ 倍,方向也没变。

现在,我们来玩个小把戏,看看 $v_1$ 和 $v_2$ 之间有什么“几何关系”。我们将矩阵 $A$ 作用在 $v_2$ 上,然后将这个结果与 $v_1$ 进行一个“点乘”(或者说是内积,数学上用 $langle u, v angle$ 来表示)。

我们先看 $Av_2$ 与 $v_1$ 的点乘:
$langle Av_2, v_1 angle$

根据点乘的性质,我们可以把 $A$ “移到”第一个向量上,变成:
$langle v_2, A^T v_1 angle$

因为我们的矩阵 $A$ 是对称的,所以 $A^T = A$。因此,上式可以写成:
$langle v_2, Av_1 angle$

现在,我们知道 $Av_1 = lambda_1 v_1$。所以,表达式变成:
$langle v_2, lambda_1 v_1 angle$

根据点乘的线性性质,我们可以把常数 $lambda_1$ 提出来:
$lambda_1 langle v_2, v_1 angle$

好了,我们得到了第一个表达式:$langle Av_2, v_1 angle = lambda_1 langle v_2, v_1 angle$。

接下来,我们换个角度,我们先将矩阵 $A$ 作用在 $v_1$ 上,然后将这个结果与 $v_2$ 进行点乘:
$langle Av_1, v_2 angle$

同样地,我们可以把 $A$ “移到”第一个向量上:
$langle v_1, A^T v_2 angle$

因为 $A$ 是对称的,所以 $A^T = A$:
$langle v_1, Av_2 angle$

现在,我们知道 $Av_2 = lambda_2 v_2$。所以,表达式变成:
$langle v_1, lambda_2 v_2 angle$

同样地,把常数 $lambda_2$ 提出来:
$lambda_2 langle v_1, v_2 angle$

所以,我们得到了第二个表达式:$langle Av_1, v_2 angle = lambda_2 langle v_1, v_2 angle$。

现在,仔细观察一下这两个结果。我们都知道,点乘是满足交换律的:$langle u, v angle = langle v, u angle$。所以,$langle v_2, v_1 angle = langle v_1, v_2 angle$。

那么,我们就有:
$langle Av_2, v_1 angle = lambda_1 langle v_1, v_2 angle$
$langle Av_1, v_2 angle = lambda_2 langle v_1, v_2 angle$

因为 $A$ 是对称矩阵,所以 $Av_1$ 和 $Av_2$ 的结果,当它们与彼此点乘时,我们有:
$langle Av_1, v_2 angle = langle v_1, Av_2 angle$

这里的关键在于,第一个表达式 $langle Av_2, v_1 angle$ 和第二个表达式 $langle Av_1, v_2 angle$ 实际上是相等的!这是因为点乘的性质,以及矩阵的对称性。

所以,我们可以这样写:
$lambda_1 langle v_2, v_1 angle = langle Av_2, v_1 angle = langle v_1, Av_2 angle = langle v_1, lambda_2 v_2 angle = lambda_2 langle v_1, v_2 angle$

这就意味着:
$lambda_1 langle v_1, v_2 angle = lambda_2 langle v_1, v_2 angle$

我们可以把等式写成:
$(lambda_1 lambda_2) langle v_1, v_2 angle = 0$

我们知道,这个对称矩阵的特征值是不同的,也就是说 $lambda_1 eq lambda_2$。那么,$(lambda_1 lambda_2)$ 就不是零。

当两个数的乘积为零时,并且其中一个数不是零,那么另一个数必须是零。

所以,根据这个逻辑,我们必然得到:
$langle v_1, v_2 angle = 0$

点乘为零,在几何上意味着什么?

这正是核心所在。两个非零向量的点乘为零,恰恰说明了这两个向量是相互垂直的,也就是正交的。

从几何上理解,对称矩阵就像是在描述一个“椭球体”的拉伸规律(如果特征值都大于零)。它的轴线方向就是特征向量的方向,而轴线的长度就是特征值。如果这些轴线的长度(特征值)是不同的,那么它们必然是相互垂直的,否则就不能构成一个标准的椭球体的三个(或更多)互相垂直的轴。

想象一下,你有一个橡皮泥团,你想把它变成一个非常扁的长方形(比如一维情况)。你只能沿着一个方向拉伸。如果这个橡皮泥团已经是一个完美的立方体,你只能沿着一条轴拉伸,那么其他两条轴的方向就必须保持不变,并且相互垂直。

对于对称矩阵,它在特征向量的方向上进行“独立”的拉伸(或压缩),并且这些拉伸因子(特征值)是不同的。如果两个特征向量不垂直,那么在矩阵作用下,它们会被“混合”在一起,改变方向,但这与特征向量的定义——方向不变——产生了矛盾。因此,为了保持方向不变,并且拉伸比例不同,它们必须在初始状态下就相互垂直。

所以,简单来说,对称矩阵的特征值不同,就意味着它在不同方向上的“形变”程度不同。为了在这些不同“形变”方向上保持向量的“方向不变”这个特征,这些方向(特征向量)就必须是互相独立的,而相互垂直(正交)正是这种独立性的最强的几何体现。

网友意见

user avatar

几何解释

设对称矩阵 ,它是作用于三维空间的线性变换

我们为了方便观察它究竟如何改变了三维空间中的点,于是我们观察它如何改变单位球。理论上,只要研究清楚线性变换对所有单位向量的作用,也就研究清楚线性变换对空间中的每一点的作用,这是显然的事情,这是因为线性变换的线性——

如上图,我们发现,经过变换后的单位球面变成了椭球面,而且椭球面的三个对称轴就是矩阵 的三个特征方向,椭球面三个半轴长就是特征值的绝对值。所以不同特征值对应的特征向量垂直,这是椭球面的几何性质。

为什么是椭球面,这个读者自己计算验证即可。至于为什么是椭球面的三个对称轴,需要考虑函数的极值问题。函数

表示椭球面沿单位向量 的高度函数。利用拉格朗日条件极值原理,可以算出极值点恰好是 的特征向量,极值是特征值。这个学过高数应该都能处理。

(从Morse理论讲,函数 在特征向量这一点处是一个非退化的临界点(即 非退化),它局部上的指标是0,这是椭球面的拓扑性质决定的。)

退化情况

如果特征值相同的特征向量怎么办?这个时候椭球面成为旋转椭球面,即它沿着长半轴的投影是圆盘。

上图这个圆上的任意向量都是 的特征向量,这个圆所在的平面是 某个特征重根所对应的二维不变子空间,从几何上讲,就是 将这个平面从原点向各个方向伸缩了相同的倍数,但平面还是平面,所以是不变子空间。它上面的基有无穷多组(不考虑相乘一个对角矩阵),所以你无法说相同特征根对应的特征向量是正交的,这不一定。

读者可以用拉格朗日极值原理算一下这种退化的情况。

泛函分析中关于对称紧算子有相关结论[1],算是这个问题的推广—— 关于对称紧算子的习题 - 三川啦啦啦的文章 - 知乎 zhuanlan.zhihu.com/p/33 当时北师大杨大春教授特别讲过这个例子,但是你在他的书上是找不到的,他会以笔记的形式补充。复旦版的高维微积分有这个例子的详细计算过程——

这本书我比较喜欢,图好看,计算很清楚。


以下是这个命题的一般证明——

定义

对称矩阵 对任意向量 都满足性质

其中 是内积。这也是对称线性变换的定义。

证明

假设特征值、特征向量:

代入到 中,则

由于题目要求是不同特征值 ,所以只能得到 即两特征向量正交。

参考

  1. ^ 杨大春,袁荣,《泛函分析讲义》

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有