这个问题挺有意思的,听起来就像是一个不断“进化”的抛硬币过程。我们来一步一步拆解,看看最后那个硬币的数量,也就是 $a_n$,它的概率分布到底能不能求出来,以及怎么求。
首先,我们明确一下这里的“抛掷”,指的是一个标准的、公平的硬币抛掷,即正面朝上和反面朝上的概率都是 $1/2$。
我们设定一下变量和过程:
$a_0$: 这是我们开始时拥有的硬币数量。这是一个固定的起始值,不是随机的。
$a_1$: 第一次抛掷 $a_0$ 枚硬币后,正面朝上的硬币数量。这个值是随机的。
$a_2$: 第二次根据 $a_1$ 的值抛掷 $a_1$ 枚硬币后,正面朝上的硬币数量。这个值也是随机的。
...
$a_n$: 第 $n$ 次抛掷 $a_{n1}$ 枚硬币后,正面朝上的硬币数量。我们需要求出这个 $a_n$ 的概率分布。
核心问题: $a_n$ 的概率分布是什么?
答案是:能求。
我们一步步来分析它是怎么求的。这本质上是一个条件概率和全概率公式的链式应用。
第一步:理解 $a_1$ 的概率分布
我们有 $a_0$ 枚硬币。每一次抛掷都像是独立试验。对于这 $a_0$ 枚硬币中的每一枚,它正面朝上的概率是 $1/2$,反面朝上的概率也是 $1/2$。
因此,$a_1$ 的分布就是一个二项分布。
如果我们将“正面朝上”视为“成功”,那么我们就进行了 $a_0$ 次独立的伯努利试验,每次成功的概率是 $p = 1/2$。
所以,$a_1$ 服从二项分布 $B(a_0, 1/2)$。
其概率质量函数(PMF)为:
$P(a_1 = k mid a_0) = inom{a_0}{k} (1/2)^k (1/2)^{a_0k} = inom{a_0}{k} (1/2)^{a_0}$
其中 $k$ 的取值范围是 $0, 1, 2, dots, a_0$。
第二步:理解 $a_2$ 的概率分布
现在我们考虑 $a_2$ 的分布。$a_2$ 的值取决于 $a_1$ 的值。也就是说,$a_2$ 的分布条件于 $a_1$ 的值。
如果已知 $a_1$ 的值是 $k$(这里 $k$ 是 $a_1$ 的一个可能取值,即 $0 le k le a_0$),那么我们就需要抛掷 $k$ 枚硬币。
按照第一步的逻辑,这 $k$ 枚硬币正面朝上的数量,也就是 $a_2$,将服从二项分布 $B(k, 1/2)$。
所以,在给定 $a_1=k$ 的条件下,$a_2$ 的概率分布是:
$P(a_2 = m mid a_1 = k) = inom{k}{m} (1/2)^m (1/2)^{km} = inom{k}{m} (1/2)^k$
其中 $m$ 的取值范围是 $0, 1, 2, dots, k$。
现在,我们想要求的是 $a_2$ 的无条件概率分布,即 $P(a_2 = m)$。我们可以使用全概率公式,对所有可能的 $a_1$ 的值进行积分(或求和,因为 $a_1$ 是离散的):
$P(a_2 = m) = sum_{k=0}^{a_0} P(a_2 = m mid a_1 = k) P(a_1 = k)$
我们将已知的部分代入:
$P(a_2 = m) = sum_{k=m}^{a_0} inom{k}{m} (1/2)^k imes inom{a_0}{k} (1/2)^{a_0}$
这里的求和下限是从 $m$ 开始,因为如果 $k < m$,那么 $inom{k}{m}$ 是 $0$。
这个求和式子看起来有点复杂,但它是可以计算出来的。通过一些组合数学的恒等式,可以证明 $a_2$ 的分布仍然是二项分布,而且这里的技巧是,这个二项分布的参数也和 $a_0$ 相关。
一个更直观的理解方式:
每一次抛掷,我们关注的是“正面朝上的硬币数量”。如果硬币是公平的,那么无论有多少枚硬币在抛,每枚硬币正面朝上的概率始终是 $1/2$。
想象一下:
第一次,我们抛 $a_0$ 枚。每枚“成功”(正面朝上)的概率是 $1/2$。最后正面朝上的数量是 $a_1$。
第二次,我们抛 $a_1$ 枚。如果 $a_1$ 是一个固定的数字,那么这 $a_1$ 枚硬币正面朝上的数量 $a_2$ 就服从 $B(a_1, 1/2)$。
但是 $a_1$ 本身是随机的。
我们换一个角度:考虑最初的 $a_0$ 枚硬币中的某一枚。
它第一次抛的时候,正面朝上的概率是 $1/2$。如果它正面朝上,那么这枚硬币“传递”了它的“正面”属性。
第二次抛掷时,我们选择的硬币数量是 $a_1$。如果这枚硬币在第一次抛掷时是正面朝上,那么它就会被计算在 $a_1$ 中,并参与第二次的抛掷。
这听起来有点绕。更清晰的思路是,关注最终的硬币数量 $a_n$ 是由哪“批”最初的硬币“贡献”来的。
第三步:推广到 $a_n$ 的分布
我们可以看到一个模式:
$a_1 sim B(a_0, 1/2)$
$a_2 sim B(a_1, 1/2)$ (条件于 $a_1$)
$a_3 sim B(a_2, 1/2)$ (条件于 $a_2$)
...
$a_n sim B(a_{n1}, 1/2)$ (条件于 $a_{n1}$)
要计算 $P(a_n = x)$,我们需要用到全概率公式,对所有可能的 $a_{n1}$ 的值进行求和:
$P(a_n = x) = sum_{k} P(a_n = x mid a_{n1} = k) P(a_{n1} = k)$
其中 $k$ 的取值范围是 $0, 1, dots, a_{n2}$(因为 $a_{n1}$ 的最大值是 $a_{n2}$)。
这个递归关系表明,我们可以一层一层地计算下去。
$P(a_n = x) = sum_{k_{n1}} sum_{k_{n2}} dots sum_{k_1} P(a_n=x mid a_{n1}=k_{n1}) P(a_{n1}=k_{n1} mid a_{n2}=k_{n2}) dots P(a_1=k_1 mid a_0) P(a_0)$
这里的 $P(a_0)$ 是1,因为 $a_0$ 是一个已知量。
关键的结论:
经过一系列复杂的推导(常常涉及到生成函数或概率母函数),可以证明,无论迭代多少次,只要硬币是公平的,最终的 $a_n$ 的分布仍然是二项分布。
具体来说,如果起始有 $a_0$ 枚硬币,每次抛掷都是公平的(正面概率为 $p$),那么经过 $n$ 次这样的过程后,最终正面朝上的硬币数量 $a_n$ 的分布是:
$a_n sim B(a_0 cdot p^n, p)$
在这个问题中,我们有 $p = 1/2$。所以:
$a_n sim B(a_0 cdot (1/2)^n, 1/2)$
解释这个结论:
为什么参数会变成这样?我们可以用期望来理解。
$E[a_1] = a_0 cdot p$
$E[a_2] = E[E[a_2 mid a_1]] = E[a_1 cdot p] = E[a_1] cdot p = (a_0 cdot p) cdot p = a_0 cdot p^2$
依此类推,$E[a_n] = a_0 cdot p^n$。
这个期望值 $a_0 cdot p^n$ 恰好是 $B(a_0 cdot p^n, p)$ 这个二项分布的期望值。
更严谨的证明涉及到了概率母函数。如果我们设 $G_k(s) = E[s^{a_k}]$ 是 $a_k$ 的概率母函数。
$G_0(s) = s^{a_0}$ (因为 $a_0$ 是确定的)
$G_1(s) = E[s^{a_1}]$。已知 $a_1 sim B(a_0, p)$,其概率母函数是 $(1p+ps)^{a_0}$。所以 $G_1(s) = (1p+ps)^{a_0}$。
接下来,我们有 $a_2$ 的概率母函数:
$G_2(s) = E[s^{a_2}] = E[E[s^{a_2} mid a_1]]$
条件于 $a_1=k$ 时,$a_2 sim B(k, p)$,所以 $E[s^{a_2} mid a_1=k] = (1p+ps)^k$。
因此,$G_2(s) = E[(1p+ps)^{a_1}]$。
这是一个关于 $a_1$ 的期望。我们可以用 $t = (1p+ps)$ 来代替 $s$。
所以,$G_2(s) = G_1(1p+ps) = (1p + p(1p+ps))^{a_0}$
$G_2(s) = (1p + p p^2 + p^2s)^{a_0} = (1 p^2 + p^2s)^{a_0}$
看到了模式!
$G_0(s) = (1p+ps)^{a_0}$ (这里可以看作 $n=0$ 的情况,虽然 $a_0$ 是固定的,但这个形式也符合,因为 $a_0 cdot p^0 = a_0$)
$G_1(s) = (1p+ps)^{a_0}$ (这里是 $B(a_0, p)$ 的母函数)
$G_2(s) = (1p^2+p^2s)^{a_0}$
照这个规律下去,$G_n(s)$ 将是:
$G_n(s) = (1 p^n + p^n s)^{a_0}$
而 $(1 lambda + lambda s)^N$ 正是二项分布 $B(N, lambda)$ 的概率母函数。
所以,$G_n(s) = (1 (p^n) + (p^n) s)^{a_0}$ 表明 $a_n$ 服从二项分布 $B(a_0, p^n)$。
回归到我们的问题, $p=1/2$:
$a_n sim B(a_0 cdot (1/2)^n, 1/2)$
最终的概率分布形式:
对于给定的 $a_0$ 和迭代次数 $n$, $a_n$ 的概率分布是一个二项分布。假设我们要计算 $a_n$ 等于某个特定值 $m$ 的概率,即 $P(a_n = m)$。
那么这个概率是:
$P(a_n = m) = inom{a_0 cdot (1/2)^n}{m} (1/2)^m (1/2)^{a_0 cdot (1/2)^n m}$
$P(a_n = m) = inom{a_0 / 2^n}{m} (1/2)^{a_0 / 2^n}$
注意事项和可能的陷阱:
1. $a_0 cdot (1/2)^n$ 必须是整数: 在二项分布 $B(N, p)$ 中,$N$ 是试验次数,必须是整数。这里,$a_0 cdot (1/2)^n$ 是试验次数。如果 $a_0$ 不是 $2^n$ 的倍数,那么 $a_0 cdot (1/2)^n$ 就不是整数。这怎么办?
仔细审视问题描述:当抛掷 $a_{i1}$ 枚硬币时,正面朝上的数量是 $a_i$。如果 $a_{i1}$ 枚硬币中有 $k$ 枚正面朝上,那么下一轮就抛掷 $k$ 枚。这意味着实际的试验次数总是前面那一轮正面朝上的硬币数量。
我们不能直接套用上面那个简化公式。上面的公式是针对一个过程,即“每次我们都有一个固定的概率 $p$ 来选择一枚硬币,然后这枚硬币在下一轮被抛掷”。这里的过程是“根据上一轮正面朝上的数量来确定下一轮抛掷的硬币数量”。
重新审视:
让我们回到 $P(a_2 = m) = sum_{k=m}^{a_0} inom{k}{m} (1/2)^k imes inom{a_0}{k} (1/2)^{a_0}$ 这个式子。
这个式子才是精确的计算方法。
这个问题的关键在于:
第一次,从 $a_0$ 枚硬币中,选出 $a_1$ 枚正面朝上的硬币。 $a_1 sim B(a_0, 1/2)$。
第二次,我们用 $a_1$ 枚硬币,抛掷它们。从中选出 $a_2$ 枚正面朝上的硬币。 $a_2 mid a_1 sim B(a_1, 1/2)$。
我们不能把 $a_0 cdot (1/2)^n$ 简单地看作是“总共抛了多少次”。实际上,每次抛掷的次数是动态变化的。
那么,我们还能求出精确的概率分布吗?
答案是:是的,可以求,但形式可能不如上面那个简化的二项分布那么直接。
让我们回到概率母函数。
$G_0(s) = s^{a_0}$
$G_1(s) = E[s^{a_1}] = left(frac{1+s}{2}
ight)^{a_0}$
$G_2(s) = E[s^{a_2}] = Eleft[left(frac{1+s}{2}
ight)^{a_1}
ight]$
令 $t = left(frac{1+s}{2}
ight)$。那么 $G_2(s) = E[t^{a_1}]$。
这里的 $E[t^{a_1}]$ 就是将 $a_1$ 的概率母函数中的 $s$ 替换为 $t$。
所以 $G_2(s) = left(frac{1+t}{2}
ight)^{a_0} = left(frac{1 + frac{1+s}{2}}{2}
ight)^{a_0} = left(frac{frac{2+1+s}{2}}{2}
ight)^{a_0} = left(frac{3+s}{4}
ight)^{a_0}$
这个结果看起来有点奇怪,它不是一个标准的二项分布的概率母函数。这表明上面的简化公式 $B(a_0 cdot p^n, p)$ 并不适用于这种“数量随前一步结果而变化”的迭代过程。那个公式更适用于“每次都有固定数量的试验,但每次试验成功率可能在变”或者“每次是从一个集合中抽取样本,样本的性质影响下一轮抽取的集合”。
那么,正确的概率母函数是什么样的呢?
Let $G_n(s)$ be the probability generating function for $a_n$.
$G_0(s) = s^{a_0}$
$G_1(s) = left(frac{1+s}{2}
ight)^{a_0}$
$G_2(s) = left(frac{1 + G_1(s)}{2}
ight)^{a_0}$ (这是错误的!这里应该是 $G_2(s) = E[(1+s/2)^{a_1}]$ 的话,才会有 $G_2(s) = G_1((1+s)/2)$,但我们这里是 $E[s^{a_2}]$,$a_2 sim B(a_1, 1/2)$,其母函数是 $((1+s)/2)^{a_1}$)
所以,$G_2(s) = Eleft[left(frac{1+s}{2}
ight)^{a_1}
ight]$
令 $x = frac{1+s}{2}$。 $G_2(s) = E[x^{a_1}] = G_1(x) = G_1left(frac{1+s}{2}
ight)$
$G_2(s) = left(frac{1 + frac{1+s}{2}}{2}
ight)^{a_0} = left(frac{frac{2+1+s}{2}}{2}
ight)^{a_0} = left(frac{3+s}{4}
ight)^{a_0}$ (之前的推导是正确的)
现在推导 $G_3(s)$:
$G_3(s) = E[s^{a_3}] = Eleft[left(frac{1+s}{2}
ight)^{a_2}
ight]$
令 $y = frac{1+s}{2}$。 $G_3(s) = E[y^{a_2}] = G_2(y) = G_2left(frac{1+s}{2}
ight)$
$G_3(s) = left(frac{3 + frac{1+s}{2}}{4}
ight)^{a_0} = left(frac{frac{6+1+s}{2}}{4}
ight)^{a_0} = left(frac{7+s}{8}
ight)^{a_0}$
这个模式似乎是:
$G_n(s) = left(frac{2^n 1 + s}{2^n}
ight)^{a_0}$
让我们验证一下这个形式的 PGF 是什么分布。
一个二项分布 $B(N, p)$ 的 PGF 是 $(1p+ps)^N$。
我们的 $G_n(s) = left(frac{2^n 1}{2^n} + frac{1}{2^n}s
ight)^{a_0} = left(frac{2^n1}{2^n} + frac{1}{2^n}s
ight)^{a_0}$
这个形式与二项分布的 PGF $(1p+ps)^N$ 不匹配。
问题出在哪里?
让我们回到定义: $a_i$ 是前 $a_{i1}$ 枚硬币中正面朝上的数量。
每次抛掷,正面朝上的概率是 $1/2$。
$a_1 sim B(a_0, 1/2)$。 PGF 是 $G_1(s) = (frac{1+s}{2})^{a_0}$。
$a_2 mid a_1 sim B(a_1, 1/2)$。 PGF 是 $E[s^{a_2} mid a_1] = (frac{1+s}{2})^{a_1}$。
$G_2(s) = E[E[s^{a_2} mid a_1]] = E[(frac{1+s}{2})^{a_1}]$
注意到,$(frac{1+s}{2})^{a_1}$ 实际上是 $a_1$ 的一个函数。要求它的期望值,就是把 $a_1$ 的概率分布代入。
如果 $X sim B(N, p)$,其 PGF 是 $G_X(s) = (1p+ps)^N$。
$E[f(X)]$ 的计算通常不是通过简单代换PGF的变量来完成的。
正确的处理方式:
$G_n(s)$ 的递推关系。
$G_0(s) = s^{a_0}$
$G_{i}(s) = E[s^{a_i}] = E[E[s^{a_i} mid a_{i1}]]$
由于 $a_i mid a_{i1} sim B(a_{i1}, 1/2)$,其 PGF 为 $(frac{1+s}{2})^{a_{i1}}$。
所以,$G_i(s) = Eleft[left(frac{1+s}{2}
ight)^{a_{i1}}
ight]$。
令 $x = frac{1+s}{2}$。则 $G_i(s) = E[x^{a_{i1}}]$。
这个期望值是什么呢?是 $a_{i1}$ 的 PGF,但是把里面的 $s$ 替换成了 $x$。
$G_i(s) = G_{i1}(x) = G_{i1}left(frac{1+s}{2}
ight)$。
这是一个关于 PGF 的递推关系!
$G_0(s) = s^{a_0}$
$G_1(s) = G_0left(frac{1+s}{2}
ight) = left(frac{1+s}{2}
ight)^{a_0}$
$G_2(s) = G_1left(frac{1+s}{2}
ight) = left(frac{1+frac{1+s}{2}}{2}
ight)^{a_0} = left(frac{3+s}{4}
ight)^{a_0}$
$G_3(s) = G_2left(frac{1+s}{2}
ight) = left(frac{3+frac{1+s}{2}}{4}
ight)^{a_0} = left(frac{frac{6+1+s}{2}}{4}
ight)^{a_0} = left(frac{7+s}{8}
ight)^{a_0}$
所以,$G_n(s) = left(frac{2^n1+s}{2^n}
ight)^{a_0}$。
这个结果是对的!
现在,问题是如何从这个 PGF 得到概率分布?
对于一个多项式 $P(s) = c_0 + c_1s + c_2s^2 + dots + c_ks^k$,其中 $c_i = P(X=i)$。
而我们的 PGF 是一个幂的幂,不是一个多项式。
$G_n(s) = left(frac{2^n1}{2^n} + frac{1}{2^n}s
ight)^{a_0}$
利用二项式定理展开:
$G_n(s) = sum_{k=0}^{a_0} inom{a_0}{k} left(frac{2^n1}{2^n}
ight)^{a_0k} left(frac{1}{2^n}s
ight)^k$
$G_n(s) = sum_{k=0}^{a_0} inom{a_0}{k} left(frac{2^n1}{2^n}
ight)^{a_0k} left(frac{1}{2^n}
ight)^k s^k$
根据概率母函数的定义,$G_n(s) = sum_{m=0}^{infty} P(a_n=m) s^m$。
所以,$P(a_n=k)$ 就是 $s^k$ 项的系数。
$P(a_n=k) = inom{a_0}{k} left(frac{2^n1}{2^n}
ight)^{a_0k} left(frac{1}{2^n}
ight)^k$
其中 $k$ 的取值范围是 $0, 1, 2, dots, a_0$。
验证一下:
当 $n=1$ 时:
$P(a_1=k) = inom{a_0}{k} left(frac{2^11}{2^1}
ight)^{a_0k} left(frac{1}{2^1}
ight)^k = inom{a_0}{k} left(frac{1}{2}
ight)^{a_0k} left(frac{1}{2}
ight)^k = inom{a_0}{k} left(frac{1}{2}
ight)^{a_0}$
这与我们最初计算的 $a_1 sim B(a_0, 1/2)$ 的 PGF 是吻合的。
当 $n=2$ 时:
$P(a_2=k) = inom{a_0}{k} left(frac{2^21}{2^2}
ight)^{a_0k} left(frac{1}{2^2}
ight)^k = inom{a_0}{k} left(frac{3}{4}
ight)^{a_0k} left(frac{1}{4}
ight)^k$
这意味着 $a_2$ 服从二项分布 $B(a_0, 1/4)$。
结论:
最终,$a_n$ 的概率分布是二项分布 $B(a_0, (1/2)^n)$。
也就是说,经过 $n$ 次迭代后,正面朝上的硬币数量 $a_n$ 的分布为:
$P(a_n = k) = inom{a_0}{k} left(frac{1}{2}
ight)^{n k} left(1 left(frac{1}{2}
ight)^n
ight)^{a_0k}$ (这是一个笔误,应该是 $P(a_n=k) = inom{a_0}{k} (p_n)^k (1p_n)^{a_0k}$,其中 $p_n=(1/2)^n$ )
更正后的最终形式的概率分布:
如果我们将 $p_n = (1/2)^n$,那么最终 $a_n$ 服从二项分布 $B(a_0, p_n)$。
$P(a_n = k) = inom{a_0}{k} (p_n)^k (1p_n)^{a_0k}$
$P(a_n = k) = inom{a_0}{k} left(left(frac{1}{2}
ight)^n
ight)^k left(1 left(frac{1}{2}
ight)^n
ight)^{a_0k}$
$P(a_n = k) = inom{a_0}{k} left(frac{1}{2^{nk}}
ight) left(1 frac{1}{2^n}
ight)^{a_0k}$
请注意: 上面公式中的 $k$ 是指 最终 $a_n$ 的数量,而不是中间过程的某个变量。并且 $k$ 的取值范围是 $0, 1, dots, a_0$。
思考一下这里的“概率”是什么意思:
这个概率是说,从最初的 $a_0$ 枚硬币开始,经过 $n$ 次这样的迭代过程,最终正面朝上的硬币数量为 $k$ 的概率。
为什么会是 $B(a_0, (1/2)^n)$ 呢?
这是一种很巧妙的结果。可以这样理解:考虑最初的 $a_0$ 枚硬币中的任何一枚。
这枚硬币是否会“存活”到最后,$a_n$ 的统计中,可以看作是一种“成功”。
第一次抛掷,它正面朝上的概率是 $1/2$。如果它正面朝上,那么它参与下一轮。
如果它反面朝上,它就不参与下一轮了。
这里的“参与下一轮”的逻辑有点复杂。
更简单(也更正确)的思路是利用 PGF 的递推关系。
$G_n(s) = left(frac{2^n1+s}{2^n}
ight)^{a_0}$
这可以写成:
$G_n(s) = left(1 frac{1}{2^n} + frac{1}{2^n}s
ight)^{a_0}$
这是一个标准二项分布 $B(a_0, p_n)$ 的 PGF,其中 $p_n = frac{1}{2^n}$。
所以,$a_n sim B(a_0, (1/2)^n)$。
所以,最终的概率分布是可以求的,并且它是一个二项分布。
总结一下整个过程和推导思路:
1. 定义过程: $a_0$ 枚硬币, $a_i$ 是抛掷 $a_{i1}$ 枚硬币后正面朝上的数量,每次抛掷公平。
2. 识别核心工具: 概率母函数 (PGF) 是处理这类随机变量序列关系的好工具。
3. 建立 PGF 的递推关系:
$a_0$ 是确定值, PGF $G_0(s) = s^{a_0}$。
$a_1 sim B(a_0, 1/2)$, PGF $G_1(s) = (frac{1+s}{2})^{a_0}$。
$a_i mid a_{i1} sim B(a_{i1}, 1/2)$,其 PGF 是 $(frac{1+s}{2})^{a_{i1}}$。
$G_i(s) = E[s^{a_i}] = E[E[s^{a_i} mid a_{i1}]] = E[(frac{1+s}{2})^{a_{i1}}]$。
令 $x = frac{1+s}{2}$,则 $G_i(s) = E[x^{a_{i1}}] = G_{i1}(x)$。
由此得到 PGF 的递推关系:$G_i(s) = G_{i1}left(frac{1+s}{2}
ight)$。
4. 求解 PGF 的封闭形式: 通过迭代计算或观察模式,得到 $G_n(s) = left(frac{2^n1+s}{2^n}
ight)^{a_0}$。
5. 识别概率分布: 将 $G_n(s)$ 化为标准二项分布 $B(N, p)$ 的 PGF 形式 $(1p+ps)^N$。
$G_n(s) = left(1 frac{1}{2^n} + frac{1}{2^n}s
ight)^{a_0}$。
这表明 $a_n$ 服从二项分布 $B(a_0, (1/2)^n)$。
6. 写出概率质量函数 (PMF):
$P(a_n = k) = inom{a_0}{k} left(left(frac{1}{2}
ight)^n
ight)^k left(1 left(frac{1}{2}
ight)^n
ight)^{a_0k}$
其中 $k = 0, 1, 2, dots, a_0$。
所以,答案是肯定的,$a_n$ 的概率分布是可以求出来的,并且它是一个具有特定参数的二项分布。
这个结果也很有直觉意义:每次迭代“稀释”了成功的概率。第一次成功(正面朝上)的概率是 $1/2$。第二次,我们只从那些第一次成功了的硬币里选,这相当于对“第一次成功”这个事件的“成功率”又取了 $1/2$,累积起来就是 $(1/2)^2$。
关键在于理解 PGF 的递推关系,$G_i(s) = G_{i1}left(frac{1+s}{2}
ight)$ 这一步,它准确地抓住了过程的动态性。