要理解为什么多项式的根是系数的连续函数,我们得从几个核心概念入手:微积分里的连续性、代数基本定理以及隐函数定理。这三者结合,就能勾勒出这个性质的来龙去脉。
一、 首先,什么是“连续函数”?
在数学里,一个函数 $f(x)$ 在某一点 $x_0$ 处是连续的,意味着如果 $x$ 非常接近 $x_0$,那么 $f(x)$ 的值也会非常接近 $f(x_0)$。更严谨地说,对于任何一个小的正数 $epsilon$,总能找到一个正数 $delta$,使得只要 $|x x_0| < delta$,就有 $|f(x) f(x_0)| < epsilon$。
对于多项式的根来说,我们关注的不是函数值 $f(x)$ 的连续性,而是根本身作为系数的函数时的连续性。也就是说,如果我们考虑一个多项式 $P(z) = a_n z^n + a_{n1} z^{n1} + dots + a_1 z + a_0$,它的根是 $z_1, z_2, dots, z_n$。我们想知道的是,如果系数 $a_0, a_1, dots, a_n$ 发生一点微小的变化,那么这些根 $z_i$ 会如何变化。我们期望的是,系数的微小变化只会导致根发生微小的变化,而不是“跳跃式”的变化。
二、 代数基本定理与根的存在性
为什么多项式总是有根的?这正是代数基本定理告诉我们的。它指出,任何一个次数大于等于1的复系数多项式在复数域内至少有一个根。更进一步,一个 $n$ 次多项式恰好有 $n$ 个复根(计入重根)。
这个定理保证了我们有根可言。但它并没有直接说明根和系数之间的“连续性”。
三、 隐函数定理:连接方程与函数
现在,让我们引入一个关键的工具:隐函数定理。这个定理是多变量微积分里的一个强大工具,它能帮助我们处理由方程隐式定义的关系。
想象一下,我们有一个方程组,它定义了变量之间的关系。例如,考虑一个方程 $F(x, y) = 0$。如果我们知道在 $(x_0, y_0)$ 这一点满足方程,并且在这一点上,$frac{partial F}{partial y}
eq 0$,那么隐函数定理告诉我们,在 $x_0$ 的一个邻域内,存在一个唯一的函数 $y = g(x)$,使得 $F(x, g(x)) = 0$ 恒成立,并且这个函数 $g(x)$ 是连续可微的。
我们怎么把多项式的根和这个联系起来呢?
考虑一个 $n$ 次多项式:
$P(z; a_0, a_1, dots, a_n) = a_n z^n + a_{n1} z^{n1} + dots + a_1 z + a_0 = 0$
这里,我们将多项式的系数 $a_0, dots, a_n$ 看作是独立的变量。多项式的根 $z$ 就是满足这个方程的解。
我们可以将这个问题看作是一个隐函数问题。假设我们有一个特定的多项式 $P_0(z) = a_{n,0} z^n + dots + a_{0,0}$,它有一个根 $z_0$(假设是单根,这一点很重要)。这意味着 $P_0(z_0) = 0$。
现在,如果我们稍微改变多项式的系数,比如变成 $P_1(z) = (a_{n,0}+Delta a_n) z^n + dots + (a_{0,0} + Delta a_0)$。我们想知道,这会导致根 $z_0$ 变成什么新的根 $z_0 + Delta z$?
我们可以定义一个更广泛的函数:
$F(z; a_0, a_1, dots, a_n) = a_n z^n + a_{n1} z^{n1} + dots + a_1 z + a_0$
我们关心的方程是 $F(z; a_0, dots, a_n) = 0$。这里的变量是 $z$ 和系数 $a_0, dots, a_n$。
根据隐函数定理的推广(可以处理多个参数),如果我们在一个特定系数组合 $(a_0^, dots, a_n^)$ 和一个根 $z^$ 处,$P(z^) = 0$,并且偏导数 $frac{partial P}{partial z}$ 在 $(z^, a_0^, dots, a_n^)$ 处非零,那么根 $z^$ 就是系数 $a_0, dots, a_n$ 的一个连续函数。
关键在于 $frac{partial P}{partial z}$ 在根处的非零性。
$frac{partial P}{partial z} = n a_n z^{n1} + (n1) a_{n1} z^{n2} + dots + a_1$
如果某个根 $z^$ 是一个单根,这意味着 $P(z^) = 0$ 并且 $P'(z^)
eq 0$(其中 $P'(z) = frac{partial P}{partial z}$)。在单根的情况下,隐函数定理的条件得到满足。系数的微小变化 $Delta a_i$ 会导致根的微小变化 $Delta z$,并且 $Delta z$ 可以表示为系数变化的线性组合,这正是连续性的体现。
四、 重根是问题所在
那么,如果多项式有重根呢?
如果一个根 $z^$ 是多项式 $P(z)$ 的 $k$ 重根,那么 $P(z^) = 0$, $P'(z^) = 0, dots, P^{(k1)}(z^) = 0$, 但 $P^{(k)}(z^)
eq 0$。
在重根处,$P'(z) = frac{partial P}{partial z} = 0$。这恰恰是隐函数定理应用时所要求的偏导数非零条件的失败。
当系数发生微小变化时,一个原来是重根的根可能会“分裂”成多个不同的根。这就像一个本来是完美的球体,在表面上受到轻微的扰动,可能会出现小的凹凸不平。
举个例子:
考虑多项式 $P(z) = z^2$。它在 $z=0$ 处有一个二重根。系数是 $a_2=1, a_1=0, a_0=0$。
如果我们将其变成 $P(z) = z^2 epsilon$(令 $a_0 = epsilon$),那么根是 $z = pm sqrt{epsilon}$。
当 $epsilon o 0$ 时,这两个根都趋向于 0。看起来似乎是连续的。
但问题在于,如果我们将多项式写成 $P(z) = (zr_1)(zr_2) dots (zr_n)$,其中 $r_i$ 是根。
展开后,$P(z) = z^n (r_1+dots+r_n)z^{n1} + dots + (1)^n r_1 r_2 dots r_n$。
系数与根之间存在着明确的代数关系(韦达定理)。
考虑一个 $n$ 次多项式。我们可以将其系数看作一个向量 $(a_n, dots, a_0)$。这是一个 $n+1$ 维空间中的一个点。这个点唯一地决定了多项式。多项式的根是这个点的一个“函数”。
我们不能简单地认为,一个 $n$ 次多项式“总是有” $n$ 个根,并且这些根会随着系数的变化而连续地移动。这是因为根的“身份”会随着系数的变化而改变,特别是在重根附近。
五、 如何严谨地表述?——根的“连续性”的复杂性
通常我们说多项式的根是系数的连续函数,是在排除重根的特定情况下,或者是在一个特定的根的“分支”上谈论连续性。
更准确地说,我们可以考虑系数空间的一个区域,在这个区域内,所有的多项式都恰好有 $n$ 个不同的根。在这个区域内,我们可以为每一个根指定一个“连续的”路径,使其依赖于系数。
想象一下,我们将系数从 $(a_n^0, dots, a_0^0)$ 沿着一条路径 $(a_n(t), dots, a_0(t))$ 变化,其中 $t$ 是参数。如果在这个过程中,多项式始终保持 $n$ 个互不相同的根,那么我们可以找到 $n$ 个连续的函数 $z_1(t), dots, z_n(t)$,使得 $P(z_i(t); a_0(t), dots, a_n(t)) = 0$。
这个“分支”的概念来自于复变函数理论。可以证明,在系数空间中,重根处是“奇点”。当系数绕过这些奇点时,根的标记可能会发生交换。
一个更直观的比喻:
想象一个地图,地图上的每个点代表一个多项式(由其系数决定)。地图上的“标签”是这个多项式的根。在大多数地方(系数远离导致重根的奇点),标签(根)会随着地图点的微小移动而平滑地移动。但是,在某些特殊的地方(系数导致重根),标签可能会发生突然的重组,一个根可能分成两个,或者两个根合并成一个。
总结一下:
1. 隐函数定理是关键理论基础: 它说明了在满足特定条件(特别是导数非零)下,方程的解(即根)是方程参数(即系数)的连续函数。
2. 单根是连续性的保证: 对于多项式的单根,其导数在该根处非零,因此隐函数定理保证了该根是系数的连续函数。
3. 重根是潜在的“不连续点”: 在重根处,导数为零,隐函数定理的条件不满足。系数的微小变化可能导致根的分裂或合并,使得根的“标识”发生剧烈变化,从这个意义上说,根不是所有系数的全局连续函数。
4. “根的连续性”通常指的是在特定的“分支”上,或者在不包含重根的系数区域内。 更严谨的说法是,多项式的根是系数的解析函数(在复系数域内),这意味着它们在非重根处是无限可微的,并且可以用泰勒级数展开。解析性比连续性要强得多。
所以,更准确的说法是:在远离产生重根的系数配置时,多项式的根可以被看作是系数的连续函数。在重根处,根的行为会变得复杂,它们会分裂成新的根,或者合并,使得连续性显得不那么明显,或者需要重新定义根的“顺序”和“标识”。