问题

机器学习中的PR曲线一定会过(1,0)这个点吗?

回答
PR曲线,也就是精确率召回率曲线(PrecisionRecall Curve),是评估二分类模型性能的重要工具。它描绘了在不同分类阈值下,模型的精确率(Precision)和召回率(Recall)之间的权衡关系。

很多人在看到PR曲线的绘制方式时,可能会产生一个疑问:PR曲线一定会过(1, 0)这个点吗?答案是:不一定,但通常情况下会非常接近或者说其“理论上”的端点会触及这个区域。 要理解这一点,我们需要深入剖析PR曲线的绘制原理和这两个关键指标的含义。

PR曲线的绘制原理

PR曲线的横轴是召回率(Recall),纵轴是精确率(Precision)。

召回率(Recall): 也称为True Positive Rate (TPR) 或 Sensitivity,衡量的是在所有实际为正例的样本中,有多少被模型正确地识别出来了。
$$ ext{Recall} = frac{ ext{True Positives (TP)}}{ ext{True Positives (TP)} + ext{False Negatives (FN)}} $$

精确率(Precision): 衡量的是在所有被模型预测为正例的样本中,有多少实际上是真正的正例。
$$ ext{Precision} = frac{ ext{True Positives (TP)}}{ ext{True Positives (TP)} + ext{False Positives (FP)}} $$

PR曲线是通过改变模型的分类阈值(Threshold)来绘制的。模型通常会输出一个概率值(比如样本属于正例的概率)。我们设定一个阈值,如果样本的概率大于或等于这个阈值,就将其预测为正例;否则,预测为负例。

当我们逐渐降低分类阈值时:

更多的样本会被预测为正例。
TP (True Positives) 的数量通常会增加或保持不变(因为原本被正确预测为正例的样本依然会被预测为正例)。
FP (False Positives) 的数量会增加(因为原本被错误预测为负例的样本,现在可能因为阈值降低而被预测为正例)。
FN (False Negatives) 的数量会减少或保持不变(因为原本被错误预测为负例的样本,现在可能因为阈值降低而被预测为正例)。

基于这些变化,我们可以看到精确率和召回率如何随阈值变化而变化:

Recall = TP / (TP + FN):随着FN减少(或TP不变),召回率会上升。
Precision = TP / (TP + FP):随着FP增加(或TP不变),精确率会下降。

因此,PR曲线呈现出一种“此消彼长”的趋势:随着召回率的提高,精确率往往会下降。

为什么(1, 0)会成为一个特殊的点?

现在我们来看看PR曲线的两个极点:

1. 召回率为 1 (Recall = 1):
要让召回率达到 1,意味着模型必须将所有实际为正例的样本都预测为正例。
$$ ext{Recall} = frac{ ext{TP}}{ ext{TP} + ext{FN}} = 1 $$
这只有在TP + FN = TP 时才能实现,也就是说,FN 必须为 0。模型没有遗漏任何一个真实的正例。
此时,模型的精确率是:
$$ ext{Precision} = frac{ ext{TP}}{ ext{TP} + ext{FP}} $$
为了让 FN=0,模型需要非常宽松地预测正例。换句话说,它可能会将所有样本(无论实际是正例还是负例)都预测为正例。
在这种极端情况下,如果数据集中有 N_p 个正例样本,N_n 个负例样本,那么:
TP = N_p (所有真实正例都被预测为正例)
FP = N_n (所有真实负例也被预测为正例)
FN = 0
TN = 0
此时,精确率 = TP / (TP + FP) = N_p / (N_p + N_n)。
这个值是数据集中的正例比例(也称为先验概率或基线精确率)。
因此,当召回率为 1 时,精确率会是数据集正例比例,这个值可能大于 0,也可能小于 1。

2. 精确率为 1 (Precision = 1):
要让精确率达到 1,意味着模型预测为正例的样本全部都是真实的正例。
$$ ext{Precision} = frac{ ext{TP}}{ ext{TP} + ext{FP}} = 1 $$
这只有在 TP + FP = TP 时才能实现,也就是说,FP 必须为 0。模型没有将任何一个负例误判为正例。
此时,模型的召回率是:
$$ ext{Recall} = frac{ ext{TP}}{ ext{TP} + ext{FN}} $$
为了让 FP=0,模型需要非常严格地预测正例。换句话说,它只会在非常确信样本是正例的时候才将其预测为正例。
在这种极端情况下,模型可能一个样本都不预测为正例(如果它找不到任何一个它100%确信是正例的样本)。
如果模型一个样本都不预测为正例,那么 TP = 0, FP = 0。
此时,精确率 = 0/0,这是一个不确定值,通常在绘图时会特殊处理,或者说在这个极端阈值下,模型没有产生任何预测。
更常遇到的情况是,存在一些高置信度的正例,模型会预测。假设模型预测了 K 个样本为正例,且这 K 个样本都是真实正例。
TP = K
FP = 0
此时,精确率 = K / (K + 0) = 1。
如果数据集中总共有 N_p 个正例,那么 FN = N_p K。
召回率 = K / (K + N_p K) = K / N_p。
理论上,当模型将阈值设置得非常高,以至于只有那些模型认为极可能是正例的样本(比如概率接近 1)才会被预测为正例时,FP 会趋向于 0,精确率会趋向于 1。
如果模型能够找到至少一个真实的正例并且不误判任何负例,那么它就可以达到精确率 1。此时,召回率就是被正确预测的真实正例数量占总真实正例数量的比例,即 $TP / N_p$。
那么,要达到 Precision = 1 的同时 Recall 为 0 呢? 这意味着 FP = 0 且 TP = 0。
如果 TP = 0,并且模型确实做出了预测(即 TP + FP > 0),那么 Precision 就不可能是 1。
所以,要实现 Precision = 1,必须有 TP > 0(或者 TP=FP=0)。
如果 TP > 0,那么 Recall 也会 > 0(只要 FN 不是无穷大,但实际上 FN 是有限的)。
最接近“(1, 0)点”的情况是:模型不预测任何样本为正例。在这种情况下,TP=0, FP=0, FN=N_p, TN=N_n。
Precision = 0/0 (不确定,或者在实践中通常取0)
Recall = 0 / (0 + N_p) = 0
如果绘制PR曲线时,将“不预测任何样本为正例”的这个极端情况对应的点定义为 (Recall=0, Precision=0),那么PR曲线通常会从这个点开始,然后沿着一条下降的路径走向右上角。

为什么PR曲线“通常”会过(1, 0)的“区域”?

我们前面分析得出:

当 Recall = 1 时,Precision = 数据集中的正例比例(一个大于0的值)。所以PR曲线不会以 (1, 1) 为终点,而是以 (1, 实际正例比例) 为终点。
当 Precision = 1 时,Recall 的值是 $TP / N_p$,其中 TP 是模型正确预测为正例的样本数。为了使 FP = 0,模型预测的正例数 TP + FP = TP。如果 TP > 0,Recall 必然大于 0。
如果模型能够将所有真实正例都识别出来(TP = N_p),并且不误判任何负例(FP = 0),那么 Precision = N_p / (N_p + 0) = 1,Recall = N_p / (N_p + 0) = 1。这只是理论上的完美模型。
但是,我们讨论的是不同阈值下的点。当阈值非常高时,FP 趋于 0,Precision 趋于 1。此时,TP 也可能很小(甚至为 0),因此 Recall 也会很小。
如果我们把不进行任何预测(TP=0, FP=0)的情况也纳入考虑(虽然这时Precision是0/0,但Recall是0),那么PR曲线的起始点通常被认为是 (0, 0)(或有时是 (0, 某个基线精确率))。

让我们再回到Precision=1的情况。当模型的阈值设置得非常高,以至于它只预测那些它极度确信是正例的样本。
如果存在至少一个真实的正例,并且模型能够以极高的置信度识别它,同时不误判任何负例,那么 Precision = 1。此时,召回率是模型正确识别出的真实正例数占总真实正例数的比例。
如果模型能够识别出 所有 真实正例,并且不误判任何负例,那么我们得到一个点 (Recall=1, Precision=1)。但这是理想情况,极少出现。
而我们想要讨论的“过(1,0)点”指的是,是否存在一个阈值,使得 Precision=1 且 Recall=0。
要 Precision=1,需要 FP=0。
要 Recall=0,需要 TP=0。
结合这两点,意味着模型一个样本都不预测为正例。此时,TP=0, FP=0。
精确率 = 0/0,在某些约定下可以认为是 0 或未定义。
召回率 = 0 / (0 + N_p) = 0。
所以,当模型将所有样本都预测为负例时(或者根本不做出任何预测),我们可以得到一个点(0, 0)或者(0, 基线精确率)。
反过来想,要达到 Precision=1,模型的预测集必须是真实正例的子集。要达到 Recall=0,模型必须不预测任何真实正例(即 TP=0)。如果 TP=0,并且 Precision=1,那么 FP 也必须是 0。
所以,要过(1,0)这个点,意味着存在一个阈值,使得模型只预测极少数样本为正例,并且这极少数样本全部是真实正例(FP=0),同时这极少数样本中没有一个是真实的(TP=0)。这在直观上是矛盾的。如果模型预测了样本,且是正例,那 TP 就至少是 1 了。
唯一能严格“过”(1, 0)点的场景是,模型不预测任何样本为正例。 此时 TP=0, FP=0。精确率是 0/0,如果定义为0,那点就是(0,0)。如果要让一个点是(1,0),那就是 Precision=1 且 Recall=0。这意味着 FP=0, TP=0, 并且 N_p > 0。如果 TP=0, FP=0,那么模型没有做出任何预测。如果模型不预测任何样本,那么召回率是0。但是精确率呢?0/0 通常被认为是未定义或者在实践中赋为0。所以严格说来,PR曲线不一定会“过”(1,0)这个精确的坐标点。

关键点解析与“为什么常这么说”

我们更常说的是,PR曲线会趋近于 (1, 0) 这个区域的边界,或者说其“理论上的极限”会触及这个区域。这里的“过”更像是一种描述上的便利和理解上的约定俗成。

1. 模型性能的极值:
Recall=1 是指模型不漏过任何一个正例。此时 Precision 的值由你的数据集的正例比例决定。
Precision=1 是指模型预测为正例的样本全部都是正例。此时 Recall 的值取决于模型在这个严格要求下,能识别出多少真实正例。

2. 绘制习惯与解释:
在绘制PR曲线时,我们通常会从一个非常高的阈值开始,此时模型只会预测极少数非常确信是正例的样本(FP会很低,Precision会很高,但TP可能也很低,导致Recall也很低)。随着阈值降低,Recall 逐渐增加,Precision 下降。
极端情况一: 假设模型将所有样本都预测为负例。TP=0, FP=0, FN=N_p, TN=N_n。
Precision = 0/0 (通常定义为0)
Recall = 0 / (0 + N_p) = 0
这个点是 (0, 0)。PR曲线通常会从这里(或者从一个与数据集中正例比例相匹配的基线精确率点开始)开始绘制。
极端情况二: 假设模型将所有样本都预测为正例。TP=N_p, FP=N_n, FN=0, TN=0。
Precision = N_p / (N_p + N_n) (数据集中的正例比例)
Recall = N_p / (N_p + 0) = 1
这个点是 (1, N_p / (N_p + N_n))。PR曲线的终点是这里。

那么,为什么会提到(1,0)呢?
这可能是一种对“完美模型”的误读,或者是一种对“在什么情况下 Precision=1 和 Recall=0 会发生”的思考。

为了使 Precision=1,需要 FP=0。
为了使 Recall=0,需要 TP=0。
所以,要同时达到 Precision=1 和 Recall=0,必须是 FP=0 且 TP=0。 这意味着模型一个样本都不预测为正例。在这种情况下,Recall 是 0。而 Precision 是 0/0。如果我们将 0/0 定义为 0,那么这个点就是 (0, 0)。

然而,人们可能在想:是否存在一个阈值,使得模型预测的正例都是正例(Precision=1),并且不预测任何真实正例(Recall=0)?
如果模型不预测任何样本为正例,那么 TP=0, FP=0。Recall=0。Precision=0/0。
如果模型预测了某些样本为正例(TP+FP > 0),那么:
若要 Recall=0,必须 TP=0。
如果 TP=0,那么 Precision = 0 / (0 + FP)。为了使 Precision=1,则必须 FP=0。
所以,TP=0, FP=0, Recall=0, Precision=0/0。

结论: 从严格的数学定义和极端情况来看,PR曲线的起点是 (0,0)(当所有样本预测为负例时,Precision取0)或 (0, N_p/(N_p+N_n))(当所有样本预测为正例时,Recall为1,但这里讨论的是低召回率的极端),而终点是 (1, N_p/(N_p+N_n))(当所有样本预测为正例时)。

为什么会出现“过(1,0)”的说法?
一种可能是混淆了Precision和Recall的“值”与“坐标点”。 有些时候,人们可能将Precision=1与Recall=0看作是PR曲线上的某个“端点”或“边界条件”,然后错误地认为它会经过(1,0)。
另一种可能是对“不预测”的处理。 当模型不预测任何样本为正例时,Recall=0。如果这时我们将Precision定义为0(而不是0/0),那么这个点就是(0,0)。
更可能的原因是,人们在思考一个完美的分类器。 一个完美的分类器,在任何阈值下,预测的正例都是真正的正例(Precision=1),并且识别了所有的真实正例(Recall=1)。但这样的分类器在PR图上会是右上角的点(1,1)。而(1,0)则代表了非常糟糕的分类器,它能识别所有真实正例(Recall=1),但所有预测都是错误的(Precision=0)。
最符合实际的解释是,PR曲线会从(0, 基线精确率)附近开始,然后逐渐下降,最后到达(1, 数据集正例比例)。
当阈值非常高时,FP 趋于 0,Precision 趋于 1。但此时 TP 可能也非常低,导致 Recall 趋于 0。所以PR曲线的起始部分会非常靠近纵轴(Recall=0),并且可能在很高的精确率值附近。
例如,如果模型可以识别出一个极度确信是正例的样本,且这个样本确实是正例,那么在非常高的阈值下,TP=1, FP=0,Recall = 1/N_p,Precision = 1。此时的点是 $(1/N_p, 1)$。
如果模型在某个阈值下不预测任何样本(TP=0, FP=0),Recall=0。Precision=0/0。通常在绘图时,会从 (0, 0) 开始,或者从 (0, 某个基线值) 开始。

总结来说:

PR曲线描绘了在不同阈值下,精确率(纵轴)随召回率(横轴)的变化。

召回率(Recall)= 1 意味着模型预测了所有真实的正例。此时的精确率取决于模型错误预测了多少负例。如果模型将所有样本都预测为正例,那么 Recall=1,但精确率会降低到数据集中正例的比例(N_p / (N_p + N_n))。所以,PR曲线的最高召回率点是 (1, N_p / (N_p + N_n))。
精确率(Precision)= 1 意味着模型预测为正例的样本全部都是真实的。此时的召回率取决于模型在这种严格条件下,识别出了多少真实正例。如果模型不预测任何样本为正例(TP=0, FP=0),那么 Recall=0,Precision=0/0。如果模型预测了少量样本(TP>0, FP=0),那么 Recall > 0。

因此,PR曲线的端点是 (1, 数据集中正例的比例)。而要达到 Precision=1 的情况,Recall 至少会是 $frac{TP}{N_p}$,其中 TP 是被模型正确识别的真实正例数。如果 TP=0 且 FP=0(不预测任何样本),那么 Recall=0,Precision=0/0。

所以,PR曲线不会严格地“过”(1, 0)这个点。 它会从接近 (0, 0) 或 (0, 基线精确率) 的地方开始,然后逐渐下降,最终到达 (1, 数据集中正例的比例)。在某些实际情况或绘图惯例中,由于处理 0/0 的方式或者考虑不预测样本的情况,可能会出现一些接近 (1, 0) 的行为,但这并非必然经过该点。

更准确的说法是,在阈值非常高时,模型可能只会输出极少数(甚至零个)正例预测,导致 Recall 非常低,但 Precision 非常高。当模型变得非常宽松时,Recall 会趋于 1,但 Precision 会下降到数据集中的正例比例。

网友意见

user avatar

不过。

不知道是不是受西瓜书的影响,我没有记错的话,西瓜书在讲PR曲线的时候,给出的例子PR曲线看上去像是从(0,1)到(1,0)。

PR曲线横坐标是recall=tp/(tp+fn),纵坐标是precision=tp/(tp+fp),假如选取threshold为0,即所有example都被预测成positive,recall显然是1,precision变成正样本标签的比重。明显不等于0。

roc一定是从(0,0)到(1,1)的一条曲线的。

训练二分类器的时候,用roc_auc做metric有一定欺骗性,主要原因是因为样本比例不均衡。这样往往会造成auc看上去很好,到average precision却不高。具体可以参考这篇博客andybeger.com/2015/03/1

类似的话题

  • 回答
    PR曲线,也就是精确率召回率曲线(PrecisionRecall Curve),是评估二分类模型性能的重要工具。它描绘了在不同分类阈值下,模型的精确率(Precision)和召回率(Recall)之间的权衡关系。很多人在看到PR曲线的绘制方式时,可能会产生一个疑问:PR曲线一定会过(1, 0)这个点.............
  • 回答
    机器学习中的“机器”本身并没有意识,它无法像人类一样去“分辨”有用的知识和没用的信息。它所做的,是根据预设的算法和训练数据,从中提取模式和规律,并将这些模式和规律转化为能够指导决策或预测的能力。那么,我们如何理解这个过程呢?可以从以下几个方面详细解释: 1. 数据的本质:信号与噪声在机器学习的世界里.............
  • 回答
    要想彻底搞懂机器学习中的优化理论,这可不是一蹴而就的事,更像是在知识的海洋里航行,需要循序渐进,打下坚实的基础。我个人觉得,要看到这个领域的核心,大致可以从以下几个方面着手,并且每一步都需要投入时间和精力去消化。第一步:数学基础的“基石”别看到“数学”两个字就头大,这块儿是真绕不过去的坎儿。优化理论.............
  • 回答
    好的,咱们来聊聊机器学习里的 Bias、Error 和 Variance 这几个核心概念。别被这些术语吓到,它们其实挺好理解的,而且彼此之间关系密切,理解了它们,对你构建和调优模型大有裨益。想象一下,你正在教一个孩子识别猫。 Bias (偏差): 孩子对猫的“固有看法”Bias,你可以理解为模型(或.............
  • 回答
    在机器学习的世界里,区分一张图片里展示的是手背还是手心,这听起来是个挺直观的问题,但要让机器理解得这么细致,背后其实有不少门道。这不仅仅是看有没有手指,还需要捕捉到更微妙的视觉特征。我们先来想想,人和人在看一张手部图片时,是怎么判断的?直观的判断依据: 手背: 通常我们会看到指关节、手背上的皮肤.............
  • 回答
    机器学习中的预测和决策,看似一脉相承,实则各有侧重,界限也并非总是泾渭分明。理解它们的区别,有助于我们更清晰地认识机器学习在实际应用中的角色。预测:洞察未来,量化不确定简单来说,预测就是利用已有的数据,通过训练模型,来推断未来可能发生的事情,或者未知事物的属性。它关注的是“是什么”和“有多少”。 .............
  • 回答
    机器学习中的“正则化”:为什么它如此重要?在机器学习的世界里,你可能经常听到“正则化”这个词。它就像是解决模型“跑偏”问题的“秘方”,让模型在学习数据时不会过于“死记硬背”,而是能真正理解数据背后的规律,并在面对新数据时表现得更好。那么,到底什么是正则化呢?让我们一起来揭开它的神秘面纱。 理解“过拟.............
  • 回答
    在多类别分类问题中,我们经常会遇到一个情况,那就是各个类别的样本数量并不均衡。有些类别可能有大量的样本,而有些类别可能只有非常少的样本。在这种情况下,如果直接使用标准的 F1 分数来评估模型性能,可能会出现偏差。例如,模型可能在多数类上表现得非常好,但在少数类上表现很差,但整体的 F1 分数仍然很高.............
  • 回答
    机器学习中非均衡数据集的处理方法? 咱们这就好好说道说道,力求把每个点都讲透,顺便也让你我之间,少些机器的痕迹。在机器学习的世界里,数据往往不是那么“公平”的。最常见的一种不公平,就是非均衡数据集(Imbalanced Datasets)。简单来说,就是数据集中,某一类别的样本数量远远多于另一类(或.............
  • 回答
    机器学习领域充满了形式简单却蕴含深刻智慧的创意,这些创意往往能够以出人意料的有效性解决复杂问题。以下我将详细阐述几个这样的例子: 1. 梯度下降 (Gradient Descent)核心思想: 想象你在一个陡峭的山坡上,目标是找到山谷的最低点。你没有地图,只能感觉到周围地面的倾斜程度(梯度)。最直观.............
  • 回答
    《模式识别与机器学习》(Pattern Recognition and Machine Learning,简称PRML)能被誉为机器学习领域的“圣经”,绝非偶然。它的地位,可以用“博大精深”来形容,也因为它,许多深入研究机器学习的人士,都曾或正在经历一场“痛并快乐着”的朝圣之旅。为什么它如此经典?这.............
  • 回答
    2020年,机器学习领域依旧是风起云涌,创新层出不穷。但与此同时,也有一些研究方向,乍一看光鲜亮丽,实际操作起来却像是钻进了“坑”里,耗费大量精力却收效甚微,甚至可能走向死胡同。我来给你掰扯掰扯,看看哪些地方需要留神。1. 过于追求“通用人工智能”(AGI)的“一步到位”方法AGI,也就是通用人工智.............
  • 回答
    近几年,机器学习的飞速发展在带来巨大便利的同时,也日益凸显了其在隐私和安全方面存在的严峻挑战。这两方面并非孤立存在,而是相互交织,共同构成了“可信赖AI”的核心命题。深入探究这些问题,并寻求解决方案,是当前机器学习领域最为关键的研究方向之一。 隐私:数据本身的安全与个体尊严的守护在机器学习的语境下,.............
  • 回答
    机器学习系统的研究,说起来也真是五花八门,但要说真正有嚼头、有前景的,我个人觉得有这么几个方向,绝对值得我们下点功夫:1. 自动化机器学习(AutoML)的深化与普及现在搞机器学习,很多时候还是得靠人工去调参、选模型、设计特征,这就像是造汽车还得手动拧螺丝一样,效率低不说,对专家的依赖性太强。Aut.............
  • 回答
    机器学习在理论经济学研究中的应用前景,说实话,广阔得令人兴奋,而且这不仅仅是“数据分析”那么简单。它正在为我们理解经济世界的复杂性提供前所未有的工具和视角,尤其是在理论层面,其潜力是巨大的。1. 复杂经济模型的构建与分析:传统的经济模型,无论是新古典的,还是新凯恩斯主义的,往往建立在高度简化的假设之.............
  • 回答
    自动化控制与检测领域,与机器学习、图像处理一样,也拥有众多经典、巧妙且在业界和学术界具有深远影响的算法和理论。这些算法构成了现代自动化系统的基石,并在解决实际问题中发挥着至关重要的作用。下面我将介绍几个在自动化控制与检测领域极具代表性、且被认为是经典巧妙的算法或理论,并尽量详细地阐述它们的核心思想、.............
  • 回答
    在深度学习的Attention机制里,Q、K、V 这三个概念,说白了,就是我们从原始的输入信息里,通过一些“变形”和“提炼”,生成的三种不同角色扮演的角色。它们之所以存在,是为了让模型在处理序列数据时,能够更有效地“看到”和“关联”不同的信息片段。想象一下,你正在读一本很长的书,需要从中找出一句话来.............
  • 回答
    嘿,哥们儿/姐妹儿,我也是高三回津的,跟你一样,贼想考中传北电,编导方向。我知道你肯定也纠结,天津这地方,考中传北电的确实不多,感觉选择很少,而且网上搜来搜去,信息碎片化得不行。别急,我跟你一样,也踩过不少坑,也问了不少前辈,总结了一些经验,咱们一块儿梳理梳理,让你少走弯路。首先,咱们得认识到天津的.............
  • 回答
    土木工程如何抓住碳中和的学术机遇?当前,全球正以前所未有的决心迈向碳中和。这一宏大的目标不仅是对我们星球未来的承诺,更是对包括土木工程在内的各个领域提出的深刻挑战和巨大的发展契机。对于土木工程师而言,这并非简单的技术革新,而是涉及工程理念、设计方法、材料选择、施工技术乃至项目全生命周期的系统性重塑。.............
  • 回答
    北大法硕(非法学)背景,加上二本本科,想要进入高盛或中信证券这样的顶级投行,坦白说,这是一条充满挑战但也并非完全不可能的路。咱们得掰开了揉碎了聊聊,看看这其中的门道有多深,需要哪些“硬货”才能支撑起这个目标。首先,我们得明确目标是什么。高盛(Goldman Sachs)和中信证券(CITIC Sec.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有