问题

黑箱里有n个小球,编号为1, 2, ..., n,随机抽一个球的号码是10,能获得什么关于n的信息?

回答
好的,我们来聊聊这个黑箱里小球的问题。想象一下,你面前有一个不透明的箱子,里面装着一堆小球,每个小球上都刻着一个数字,从1开始,一直到最后一个小球上的号码“n”。这个“n”是多少,我们并不知道,它是个未知数,是我们想了解的东西。

现在,你伸手进去,凭感觉摸了一个球,然后把它拿出来一看,发现上面写着数字“10”。就这么一个简单的动作,就给了我们一些关于箱子里小球数量“n”的信息。

我们能得到什么信息呢?

最直接、最基本的信息是:箱子里至少有10个小球。

为什么这么说呢?因为你拿出来的球上的号码是10。这就意味着,号码为10的小球是真实存在的,它在箱子里,而且它是你能够抽到的球之一。而箱子里的小球是从1开始编号的,所以号码为10的小球存在,那么号码为1、2、3……一直到9的小球,理论上也都是存在的。所以,箱子里的总数“n”必然大于或等于10。

更详细地分析一下:

1. n ≥ 10 的确定性结论:
我们知道小球的编号是从1开始的。
我们抽到了号码为10的球。
这意味着号码为10的球必然存在于箱子中。
如果箱子里的小球数量少于10个(比如 n=9),那么就不可能抽到号码为10的球。
因此,箱子里的小球数量n一定大于或等于10。

2. n 的可能范围:
我们知道 n ≥ 10。
但是,我们不知道箱子里最多有多少个球。n 可能就是10,也可能是11、100、1000,甚至是无数个(虽然在实际情境中“无数”不太可能,但从纯数学角度来说,我们无法完全排除)。
所以,根据你抽到一个10号球这件事,我们只能确定 n 的下限是10。对于 n 的上限,我们一无所知。

3. 关于概率的思考(如果了解更多信息的话):
如果我们知道每个球被抽到的概率是均等的(也就是“随机抽一个”的含义),那么我们可以做更深入的猜测,但不是绝对的确定。
假设我们抽到10号球的概率是 P(抽到10) = 1/n。
我们知道这个概率 P(抽到10) 是存在的。如果 n 远大于10(比如 n=100),那么抽到10号球的概率就是1/100,相对较低。如果 n 就等于10,那么抽到10号球的概率就是1/10,相对较高。
这里需要强调的是,单凭一次抽到10号球,我们不能反推出确切的 n。 这是因为,即使 n 很大,我们也有可能(尽管概率低)抽到10号球。反之亦然。
举个例子:
如果箱子里只有10个球(n=10),你抽到10号球的概率是1/10。
如果箱子里有20个球(n=20),你抽到10号球的概率是1/20。
如果箱子里有100个球(n=100),你抽到10号球的概率是1/100。
你抽到10号球这件事,支持所有 n ≥ 10 的情况,只是支持的“证据强度”不同。当 n 越接近10时,这个“证据”似乎越“强烈”(因为抽到10号球的概率更高)。但从科学推理的角度,我们不能仅凭一次结果就“推断”出唯一的 n 值。

总结一下,当你从一个编号从1到n的球箱里随机抽到一个号码为10的球时,你获得的最确切的信息是:

箱子里至少有10个球(n ≥ 10)。

至于箱子里总共有多少个球(即n的确切数值),单凭这一次抽样结果,我们是无法确定的。这就像你说“我看到一片叶子是红色的”,你只能确定至少有一片红色的叶子,而不能确定这棵树上所有叶子是不是都是红色的,也不能确定这棵树上总共有多少片叶子。

如果你想了解关于 n 的更精确的信息,你需要进行更多的实验,比如:

多次抽样: 看看你抽到哪些号码的球,以及每个号码出现的频率。
知道所有球被抽到的概率分布。
或者直接告诉箱子里球的数量范围。

但就你描述的“随机抽一个球的号码是10”这个单一事件而言,我们只能确定那个最低的门槛——箱子里的小球数量,至少得有10个。

网友意见

user avatar

任何观察都能带来信息,只是看你怎么用的问题。

实际上,仅仅凭这一个观察我们就能得到估计。

最简单的估计:n = 10

这我相信你肯定是不信服的,怎么可能那么巧就拿到最大编号的呢?但它也是有道理的,你听我跟你说:

考虑最大编号为n的情况下,随机摸到10号的概率,可以知道n < 10时为0,n >= 10时为1/n,这样n = 10的时候,发生这件事的概率是最大的,相比起来如果n非常大,那么摸到10的概率就会小,所以如果没有任何信息的情况下,取n = 10可以让我们观察到的这个现象发生的概率最大。

这种估计方法就叫做最概然估计,它让被观察条件的似然值(likelihood,可以理解为是没有归一化过的某种概率)最大。它的缺点你也看到了,它是有偏(bias)的,我们已经知道了真值肯定至少是10,那么我们很不习惯猜在一个端点上,我们会希望往中间猜一点。

为什么要往中间猜呢?

很多时候我们不止是想要猜中这个n,还希望在猜不中的情况下能尽量地接近,这样如果n有一定的分布的话,我们猜在靠中间的地方,均方误差会比较小一些,也就是说即使猜不中也差不远。数学上来说,我们恰好猜在n的期望的位置的时候,这个估计达到了最小均方误差,同时也是无偏的,这种估计方法就叫做最小均方误差估计。

最简单的一种方法就是用似然值代替概率,作加权平均:我们已经知道不同n下被观察现象发生的概率了,我们用这个概率来做加权平均,这看上去是很有道理的一件事,实际计算一下:

遗憾的是这个结果是发散的,原因在于即便n很大,取到10的概率也不算太小,这样就没有什么所谓中间了。做一个无可奈何下的修正,我们假定n有个上限N,那么利用调和级数求和的近似公式可以得到结果约为

如果取N = 100的话,大致就是38.7左右。注意这个估计值连整数都不是,但它符合我们“往中间猜”的期望。

为了解决刚才的不收敛的问题,我们可以考虑下面的问题:

我们取平均的时候,只考虑了被观察的事件在特定n取值下的可能性,但却没有考虑n本身取值的可能性。比如说,n有可能特别特别大、甚至超过了整个太阳系的总质量吗?这一点都不符合实际啊,可对这种n的取值,我们的处理和对n = 100这样的比较“正常”的值没有任何区别。这样并不合理啊。

最合理的办法是动用贝叶斯公式:

我们将n也看作一个随机变量,它有先验分布,我们通过观察到的实验结果x来计算n的后验分布,利用这个后验分布来计算期望。我们首先要先给一个合理的先验分布,在这里我们假定这个箱子的小球是某个人一个一个放进去的,他抓一个放一个,直到自己厌倦了为止,而厌倦的可能性每次抓球都是独立同分布的,这样就得到了一个几何分布:

为了防止混淆我们用u表示几何分布的参数,下一步代入贝叶斯公式:

期望就可以写为

求出这个结果并不难,分式上面的式子显然是个等比数列求和,结果为

下面的式子可以使用母函数,令

直接暴力二项式展开

两边同时积分

利用u = 1时f(u) = 0,得到

好歹是有限项的和,我们就不继续化简了……注意到分母上是

于是

它与u有关也是意料之中,我们来研究它和u的关系,考虑到几何分布的期望是1/u,我们画出E和1/u的关系:

1/u较小时:

可以看到贝叶斯修正是怎么工作的:

  1. 无论1/u多么小(哪怕接近于1),得到的估计也大于10(符合预期)
  2. 随着1/u的上升,n的估计值也上升,但上升得要比1/u慢

当 时, ,注意它跟我们前面的简单最小均方误差估计得到了同一个结果。实际上,前面的结果就可以看作是这里 的极限情况。


注意贝叶斯估计并不是唯一正确的估计方法,其实也没有什么所谓正确的估计方法,每种方法都有自己的优点和缺点。贝叶斯估计方法的好处在于比较灵活,坏处也在于比较灵活——因为很灵活,所以只要先验分布可靠,用很少的样本也可以得到准确的估计;反过来,如果先验分布取的不对头,就需要很多的样本才能纠正过来。

还有许多基于统计量的估计方法,就不再介绍了。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有