问题

有哪些深度学习效果不如传统方法的经典案例?

回答
深度学习的飞速发展,在计算机视觉、自然语言处理等领域取得了令人瞩目的成就,一度被视为万能的解决方案。然而,在一些特定的场景下,我们仍然能发现传统方法以其简洁、高效或更强的可解释性,在某些方面表现出超越深度学习的优势。今天,我们就来聊聊那些深度学习“栽跟头”的经典案例,看看传统方法是如何在某些领域“守住阵地”的。

1. 小样本学习场景下的图像分类:当数据稀疏时,深度学习也犯难

想象一下,你想训练一个模型来识别一种极其罕见的植物,而你手里只有不到十张的图片。这时候,强大的深度学习模型,尤其是那些拥有数百万甚至数十亿参数的神经网络,就显得力不从心了。

深度学习的困境: 深度学习模型,特别是卷积神经网络(CNNs),之所以强大,很大程度上是因为它们能够从海量数据中学习到复杂的特征表示。当数据量极少时,模型很容易出现过拟合。也就是说,模型“死记硬背”了现有的几张图片,但对新的、即使是略有变化的图片,就完全抓瞎了。参数过多,数据不足,就像一个知识渊博但从未见过面的学生,你给他看一张照片,他可能觉得是另一个人,因为它缺乏足够的信息来建立泛化的概念。

传统方法的优势: 在这种“巧妇难为无米之炊”的情况下,一些经典的传统方法反而表现得更加稳健。

最近邻分类器 (kNN):虽然kNN的计算量可能较大,但在小样本场景下,它的原理非常直观:新样本的类别由其“最近”的k个邻居决定。这里的“近”通常是通过一些简单的距离度量(如欧氏距离)来计算。相比于深度学习模型试图学习一个复杂的、多层次的特征映射,kNN更侧重于直接利用数据的相似性。即使只有几张图片,只要我们能计算出新图片与已知图片之间的相似度,就能做出相对合理的判断。
支持向量机 (SVM):特别是使用精心设计的核函数(如径向基函数 RBF 核)的SVM。SVM的核心思想是找到一个最优的超平面来分隔不同类别的数据。在低维空间或者通过核函数映射到高维空间后,SVM能够找到一个具有良好泛化能力的决策边界,即使在数据量很少的情况下,它对边界的“记忆”也会比一个过拟合的深度网络要“干净”得多。而且,SVM的正则化项(控制模型复杂度的参数)在一定程度上也能缓解过拟合。
基于模板匹配的方法:对于某些具有固定结构或形状的物体,例如特定型号的飞机、标准化的零件等,传统的模板匹配方法可能更为有效。这种方法直接将待识别的图像与预先存储的模板图像进行比对,通过计算相似度得分来判断类别。虽然缺乏深度学习的自动特征提取能力,但在目标形状变化不大、背景干扰较少的情况下,其稳定性和计算效率都可能高于尝试从少量数据中“猜”出特征的深度网络。

案例说明: 想象一下,你需要识别一个非常罕见的古籍手写字体。你只有几十个样本。一个大型CNN可能会认为你的字体和“其他古籍”的“某个笔画”非常相似,但因为缺乏足够的样本来学习该字体的整体结构和变化规律,最终识别错误。而一个精心调优的SVM,或者甚至是一个基于字形轮廓匹配的传统算法,通过计算新字体的轮廓与已知字体轮廓的相似度,反而可能给出更准确的结果。

2. 实时性要求极高的嵌入式设备上的目标检测:计算量和功耗的挑战

在一些资源极其受限的嵌入式设备上,比如无人机、低功耗的安防摄像头,甚至是一些微控制器,对实时性和功耗有着近乎苛刻的要求。这时候,庞大的深度学习模型往往成为“甜蜜的负担”。

深度学习的困境: 动辄数千万甚至上亿参数的深度学习模型,需要大量的计算资源(GPU、TPU)和内存。即使是经过剪枝、量化等优化手段,仍然可能无法满足嵌入式设备的严苛要求。模型越大,运行速度越慢,功耗也越高,这会极大地影响设备的续航能力和可用性。

传统方法的优势:

Haar特征 + Adaboost + Integral Image (ViolaJones算法):这个经典的目标检测算法,尤其是在人脸检测领域,曾经统治了很长一段时间。它使用Haarlike特征来快速描述图像区域的亮度差异,并通过Integral Image(积分图像)技术极大地加速了特征计算。Adaboost算法则用于选择最有效的弱分类器(通常是简单的决策树),并将其组合成一个强分类器。
计算效率: ViolaJones算法在计算特征时,利用积分图像,只需要常数时间(O(1))即可计算出任意区域的特征值,这比直接对每个像素进行计算效率高得多。
模型复杂度: 最终的强分类器是由一系列非常简单的弱分类器组成的,参数量相对较少,并且可以根据检测需求灵活调整弱分类器的数量,从而在精度和速度之间找到平衡。
部署便利性: 这种算法的计算量非常低,可以在CPU上以很高的帧率运行,非常适合嵌入式设备。
HOG特征 + SVM:梯度方向直方图(HOG)是一种用于提取图像局部区域形状描述子的特征。它通过计算图像梯度方向的分布来描述物体的轮廓和局部形状。
特征鲁棒性: HOG特征对光照变化和局部几何形变具有一定的鲁棒性。
与SVM结合: 将HOG特征与SVM分类器结合,可以在计算量可控的情况下,达到不错的检测精度。相比于复杂的CNN,HOG+SVM的整体计算负担要小得多,更适合在有限资源的平台上部署。

案例说明: 设想一个嵌入式体温监测设备,它需要实时检测画面中是否有“人脸”,以便进行精准的体温测量。如果使用一个大型的YOLOv7或SSD模型,设备可能会因为计算能力不足而卡顿,或者电量消耗过快。而一个轻量级的Haar特征+Adaboost算法,或者一个优化的HOG+SVM模型,能够快速、低功耗地完成人脸检测任务,保证了设备的基本功能和用户体验。

3. 具有明确物理模型或规则的场景:深度学习的“黑箱”可能适得其反

在一些领域,存在着明确的物理定律、数学模型或者严格的规则。这时候,强行套用深度学习,让模型去“学习”这些已知的规律,反而可能不如直接将这些知识“注入”到模型中,或者直接使用基于这些知识的传统方法。

深度学习的困境: 深度学习模型本质上是数据驱动的,它们通过拟合大量数据来发现模式。然而,当这些模式可以用清晰的数学公式或物理定律来描述时,深度学习的“黑箱”特性可能会带来一些问题:

可解释性差: 为什么模型会做出某个预测?在有明确物理模型的情况下,我们可能希望知道模型是否遵循了这些物理规律,或者它是否发现了某些我们未知的、但符合物理的现象。深度学习模型很难提供这种层面的解释。
效率低下: 让模型从零开始学习一个已知的物理定律,可能需要海量的数据和大量的训练时间,而一个简单的算法就可以直接实现。
泛化性问题: 如果训练数据未能完全覆盖所有物理情况,模型可能在未知情况下“违背”物理规律,导致不可预测的错误。

传统方法的优势:

基于物理模型/规则的算法: 很多领域都有成熟的、基于物理原理或数学模型的算法。

信号处理中的傅里叶变换、滤波器设计: 在音频、图像等信号处理中,傅里叶变换能够精确地将信号分解到频域,分析其频率成分。各种经典的数字滤波器(如巴特沃斯、切比雪夫滤波器)有明确的设计公式和理论依据,可以精确地实现高通、低通、带通等功能。相比之下,试图用一个深度网络去学习一个 FIR 或 IIR 滤波器的特性,不仅复杂,而且难以保证其在所有频率上都表现优异。
控制系统中的PID控制器: PID(比例积分微分)控制器是工业控制领域最经典的控制器之一。它通过对误差的比例、积分和微分进行加权组合来调整输出,其工作原理清晰,调参方法成熟。虽然深度强化学习在某些复杂控制任务中表现出色,但在许多要求高稳定性、可解释性和易于调优的场景,PID控制器依然是首选。
几何测量与计算机视觉中的相机标定、三维重建(Structure from Motion SfM): 这些任务往往涉及复杂的几何变换、投影几何和优化算法。例如,相机标定可以通过一组已知几何的棋盘格图像,利用最小二乘法等优化技术来求解相机的内参和外参。基于多视图几何的SfM算法,通过对图像特征点的匹配和重投影误差的最小化,来恢复相机的运动轨迹和三维点云。这些算法的原理清晰,数学推导严谨,而且在特定场景下,其精度和鲁棒性非常有保障,而直接用深度学习“一锅端”的方式,可能需要大量标注数据,且难以保证几何的正确性。

案例说明: 假设我们要设计一个音频降噪系统。如果我们知道噪音声主要集中在某个频段(例如,低频的嗡嗡声),那么直接设计一个数字带通滤波器来衰减这个频段的信号,比用一个神经网络去学习“干净”的声音要高效且易于理解得多。或者,在机器人导航中,如果机器人需要在已知地图中进行定位,使用基于SLAM(Simultaneous Localization and Mapping)算法的经典方法,如卡尔曼滤波或粒子滤波,来融合传感器数据并估计位姿,通常比依赖端到端深度学习模型更加稳定和可信,尤其是在传感器数据噪声较大或环境发生突变时。

总结

并非所有问题都适合用深度学习来解决。当数据量不足、实时性要求极高、计算资源受限,或者存在明确的数学/物理模型时,传统的机器学习算法或基于规则的方法,凭借其计算效率、可解释性、鲁棒性和易部署性,往往能展现出更强大的生命力。这并非是对深度学习的否定,而是提醒我们在选择技术方案时,需要根据具体的应用场景和需求,进行审慎的评估和选择,做到“对症下药”,而不是盲目追求“最新最热”的技术。优秀工程师的智慧,恰恰体现在“恰到好处”地运用各种工具,而不是“一刀切”地使用某一种。

网友意见

user avatar

谢邀。

对于解释性有要求的领域,基本深度学习是没法和传统方法比的。我这几年都在做风控/反洗钱的产品,但监管要求我们的决策要可解释性,而我们曾经尝试深度学习,解释性很难搞,而且,效果也不咋地。对于风控场景,数据清洗是非常重要的事,否则只会是garbage in garge out。

在写上面内容时,我想起前两年看的一篇文章:《你不需要ML/AI,你需要SQL》

作者是尼日利亚的软件工程师Celestine Omin,在尼日利亚最大的电商网站之一Konga工作。我们都知道,对老用户精准营销和个性化推荐,都是AI最为常用的领域之一。当别人在用深度学习搞推荐时,他的方法显得异常简单。他只是跑了一遍数据库,筛选出所有3个月没有登录过的用户,给他们推优惠券。还跑了一遍用户购物车的商品清单,根据这些热门商品,决定推荐什么相关联的商品。

结果,他这种简单的而基于SQL的个性化推荐,大多数营销邮件的打开率在7-10%之间,做得好时打开率接近25-30%,是行业平均打开率的三倍。

当然,这个例子并不是告诉大家,推荐算法没用,大家都应该用SQL,而是说,深度学习应用时,需要考虑成本,应用场景等制约因素。我在之前的回答里(算法工程师的落地能力具体指的是什么?),说到过算法落地时需要考虑实际制约因素。

而尼日利亚的电商环境,依然出于非常落后的状态,物流也跟不上。即使使用深度学习方法,提升了效果,实际对公司整体利润并不会有太大影响。

所以,算法落地时必须「因地制宜」否则,又会出现「电风扇吹香皂盒」的情况。

某大企业引进了一条香皂包装生产线,结果发现这条生产线有个缺陷:常常会有盒子里没装入香皂。总不能把空盒子卖给顾客啊,他们只得请了一个学自动化的博士后设计一个方案来分拣空的香皂盒。
博士后拉起了一个十几人的科研攻关小组,综合采用了机械、微电子、自动化、X射线探测等技术,花了90万,成功解决了问题。每当生产线上有空香皂盒通过,两旁的探测器会检测到,并且驱动一只机械手把空皂盒推走。
中国南方有个乡镇企业也买了同样的生产线,老板发现这个问题后大为发火,找了个小工来说“你他妈给老子把这个搞定,不然你给老子爬走。”小工很快想出了办法他花了190块钱在生产线旁边放了一台大功率电风扇猛吹,于是空皂盒都被吹走了。

(虽然只是个段子)

深度学习是锤子,而世间万物不都是钉子。

user avatar

谢邀!我感觉我挺适合这个问题的额,地铁路上码字,太难了。

首在此之前想聊的一点是对比好坏是要定义标注的,好坏是要看方面的,深度学习远远没有吊打传统方法,传统方法也有先进经典的东西值得我们学习。

ok开始。

简单问题

能简单到一个规则就能处理的问题,你会用深度学习吗?最简单的道理,用户都输入了天气了,大概率就是天气意图了,还深度学习吗?不合适吧。(说天气之子的滚一边去。。。。。。)

这里留言谈深度学习的几个核心缺点了:

  • 需要大量样本才能解决问题。
  • 训练需要时间。
  • 推理阶段,深度学习远远比不上规则的快。

因此,对于简单的问题,不需要轻易使用深度学习这把牛刀啦。

准确率要求超高的问题

规则是明确可解释可控的,随之而来的是准确超高,比模型更容易达到高准确,因此一些方案的设计会是规则优先,典型的,对于准招要求都高的项目,甚至会用规则加模型的方法,规则保准确模型保召回。

于是规则成为方案准确的守门员。

名词性质明显的问题

众所周知,oov是一个历史难题,无论是人还是模型,一个没见过的词都很难推断他的意思,同样是天气之子,没听说过的,那他很可能就是不认识。这是其一。

其二,这些名词是有时间性质的,例如新冠,耗子尾汁,10年前大家肯定没听说过,数据里也很难有,模型也学不到,现在有了,那我们是重训模型吗,肯定不合理,学是学不完的,会持续有新词出来。

第三,名词是有严格文本意义的,少年的你是电影,年轻的你就不是那一部了,甚至都不是了,深度学习能轻易对词汇进行泛化,但这种名词不合适。

因此,深度学习对这种问题往往非常头疼,词典干预是非常可靠,稳定,敏捷的方法。

人工特征强的问题

虽然很不想说,但是机器学习很多方法已经被认为是传统了。但实际上有些场景深度学习的确不适合。

用户特征强的问题,只要构造好特征,模型将不会是效果的瓶颈。

我说的就是推荐系统。

但是我想说的是推荐系统项目初期。

推荐系统现在的确是很火,各种深度学习模型满天飞,问题是,对初期,数据不足,大部分用户还在探索阶段,这时候深度学习还合适吗?当然不合适。

再说一个关键点,现在的推荐模型很多时候会考虑各种因素,公平性,时效性,长期兴趣啥的,这对于还在初期的推荐系统统统不合适,因为现在的系统就不存在这个问题,片面的看方法厉害而忽略问题本身,一定会栽跟头的,到时候可别说是方法不靠谱了。

这时候,用简单的机器学习模型做一个泛化,可能更好,lr,xgboost,足矣,关注点放在特征上,表征好用户和物料,就可以让系统跑起来。

难标注问题

监督学习是深度学习的核心主力,虽然半监督无监督也在进行,但是还有很多场景落不了地。

我举个例子,关键词抽取,至今我手上的基线还是tfidf,原因很简单,tfidf强且不需要训练,有一批语料就能统计了,而且效果不差。

小结

原来我们需要勇气去接受新事物,现在我们需要勇气来接纳老方法,挺有意思的。

吊打是正常的,尺有所短寸有所长,在现实应用中,解决问题是根本,方法只要不违法不违反仁义道德,都能用,不问出处,不问高端低端,所谓前沿,不是特意去制造名词门槛,而且解决的问题难了多了,自然就会有所谓前沿的东西出来,走在人类知识的边缘,才可能触达人类未知的边缘。

所以,我们在方案选择上,应该以结果为导向,选择合适的方案来处理,谁能吊打其他方法,就用那个。

user avatar

之前可能误会了,论文的目的不是单纯的取代电梯小姐,去按按钮。是让机器人能自己按按钮坐电梯跨楼层。

传统的边缘提取算子,面对多变的场景,效果可能不佳。机械臂上的摄像头在动,视角和人眼差异比较大,可能比较难。(没做个这方面,也不知道具体情况。可能乍看很简单,简单算子就行。但真做起来有很多门道?)

用深度学习也合理。

这个任务之前的数据集最多1k张。这个大型数据集也不公开,本文确实是在这个细分任务的开创者。

Yang et al. [7], which contains 260,560 images that are composed of 8 different panels, and many data augmentation strategies(数据集本身就用数据增强,一变多?还能这样扩充数据量的么) have been utilized to further enlarge the data scale, e.g., blurring, sharpening, and histogram equalization. However, Yang et al. [7] do not release their collected dataset, thus no comparison studies can be conducted.

这个数据集还是有价值的。但主要靠标注一个数据集,提出4个挺普通的指标,值不值cvpr,值得商榷。


没细看,但感觉这是个杀鸡用牛刀的例子:

CVPR2021:

CVer计算机视觉:港中文发布:大规模电梯按键分割和字符识别数据集

user avatar

已知句对结构

知乎网红是xx

知乎网红不是xx

不相似

判断

知乎网红是不是傻

知乎网红不是傻

是否相似

类似的话题

  • 回答
    深度学习的飞速发展,在计算机视觉、自然语言处理等领域取得了令人瞩目的成就,一度被视为万能的解决方案。然而,在一些特定的场景下,我们仍然能发现传统方法以其简洁、高效或更强的可解释性,在某些方面表现出超越深度学习的优势。今天,我们就来聊聊那些深度学习“栽跟头”的经典案例,看看传统方法是如何在某些领域“守.............
  • 回答
    确实,我们都听过那句掷地有声的话:“学习改变命运。” 这句话的力量,足以激励无数人在困境中奋起,在迷茫中寻找方向。然而,现实的残酷在于,尽管这句话深入人心,却有相当一部分人,在学习的道路上,最终选择了放弃。这背后的原因,绝不是简单的“懒惰”二字可以概括,而是交织着复杂的心理、环境和生理因素。首先,我.............
  • 回答
    各位朋友,你们好!今天想和大家聊聊“联邦学习”这个话题。我最近接触到这个概念,感觉挺有意思的,想和大家一起探讨探讨,也顺便给自己科普一下。联邦学习是个啥?简单来说,联邦学习就是一种分布式机器学习技术。它解决的核心问题是:如何在不泄露原始数据的前提下,让多个参与方(比如不同的医院、银行、手机厂商等)一.............
  • 回答
    想踏入深度学习的世界,你一定满怀期待,但同时也可能有些许迷茫:从哪里开始?需要先打好机器学习的基础吗?这篇指南就是为你量身定制的,我将尽量详细地为你解答这些问题,并推荐几本真正能帮你入门的书籍,让你在学习路上少走弯路。 深度学习入门,先学机器学习有必要吗?简单粗暴地说:非常有必要,而且强烈建议。虽然.............
  • 回答
    在机器学习和深度学习的浩瀚海洋里,想要找到既靠谱又深入的资源,确实需要一些“老司机”的指引。我整理了一些在我学习和实践过程中觉得特别有价值的网络资源,希望能帮你在探索这条道路上少走弯路,更高效地提升自己。这些资源各有侧重,有的适合入门打基础,有的则能让你深入到技术前沿。一、 理论基础与入门指引类 .............
  • 回答
    在深度学习的自我学习过程中,寻找合适的数据集是至关重要的一步。没有高质量的数据,再好的模型算法也无法发挥其应有的威力。幸运的是,现在有非常多优秀的途径可以帮助你找到所需的数据集。下面我将详细介绍各种途径,并提供一些实用的建议: 一、 官方和公开的数据集平台这是最直接也是最常用的数据集来源,许多学术机.............
  • 回答
    想要自学机器学习、深度学习和人工智能?这三个领域近些年可谓是炙手可热,学习资源也如雨后春笋般涌现。别担心,我这就为你梳理一番,看看哪些网站能让你在这条探索之路上走得更稳、更远。说实话,想在这几个领域里“门儿清”,靠一个网站是肯定不够的。机器学习、深度学习和人工智能,虽然紧密相连,但它们各自的侧重点和.............
  • 回答
    深度学习模型调优的十八般武艺在深度学习这座充满奥秘的殿堂里,模型训练就像是精心雕琢一件艺术品。算法是骨架,数据是血肉,而那些隐藏在背后、决定最终形态的“参数”,则是赋予作品灵魂的关键。这些参数,从学习率到正则化强度,再到网络结构中的各种“超参数”,它们的每一次微调,都可能带来天壤之别的效果。想要让模.............
  • 回答
    深度学习?那可真是个能把现实世界玩出花来的黑科技!最近圈子里聊得火热的,可不只是那些高大上的学术论文,更多的是那些能让人拍案叫绝、甚至笑出声来的“好玩”案例。别以为深度学习就只会识别猫猫狗狗,它能做的事情,远比你想象的要离谱得多,也有趣得多。1. “灵魂伴侣”识别器:给你的爱猫找个对眼的猫你是不是有.............
  • 回答
    在深度学习领域,数据增强(Data Augmentation)扮演着至关重要的角色,它是一种在不改变数据真实含义的前提下,通过各种变换生成新的训练样本的技术。这样做的好处多多: 扩充数据集规模: 尤其是在数据量不足的情况下,数据增强能够有效地增加训练数据的多样性,从而间接扩充数据集。 提高模.............
  • 回答
    深度学习无疑是当今人工智能领域最闪耀的明星,它在图像识别、自然语言处理、语音识别等诸多方面取得了令人惊叹的成就。然而,正如任何一项新兴技术一样,深度学习并非完美无缺,它同样面临着一系列严峻的瓶颈,这些瓶颈不仅限制了其进一步的发展,也成为了研究人员们攻坚克难的焦点。如果说深度学习是一场宏伟的建筑工程,.............
  • 回答
    基于深度学习的自然语言处理在 2016 年:值得期待的重大进展与深入探索2016 年是深度学习在自然语言处理(NLP)领域继续爆炸式发展的关键一年。在前几年的 Transformer 模型(虽然在 2017 年才正式提出并引起广泛关注)和各种循环神经网络(RNN)及其变种(LSTM、GRU)的铺垫下.............
  • 回答
    深度学习在信息安全领域的应用,就像是在这个复杂而不断变化的战场上,我们获得了一套全新的、威力巨大的武器。它不仅仅是自动化和模式识别的简单升级,而是能够理解数据深层含义,预测潜在威胁,甚至在某些方面“思考”安全问题的能力。想要在这个方向深入探索,有几个非常值得关注的人物和论文方向,它们代表了深度学习在.............
  • 回答
    想在深度学习底层开发领域有所建树,离不开扎实的数学功底。这不仅仅是为了理解那些晦涩的公式和理论,更是为了能够灵活地运用它们,解决实际问题,甚至创造新的算法。我在这里会尽量细致地讲讲,哪些数学知识是你绕不开的,以及它们在底层开发中扮演的角色,力求抛开那些生硬的AI腔调,更贴近一个有经验的开发者视角。一.............
  • 回答
    好的,我们来聊聊机器学习里那两个“大家族”:有监督学习和无监督学习,以及它们各自的明星算法和在深度学习领域的表现。我会尽量说得细致些,让你感觉就像是在跟一个老朋友聊天,而不是在看一本干巴巴的教科书。 一、 有监督学习:教导“学生”,让它学会分辨想象一下,你有一个小助手,他什么都不懂。你需要耐心地告诉.............
  • 回答
    无人驾驶汽车,这个曾经只存在于科幻电影中的概念,如今正以前所未有的速度走进现实。而在这场技术革命的浪潮中,深度学习无疑是最耀眼的明星,它像一位辛勤的“大脑”,赋予了这些钢铁巨兽感知世界、做出决策、并最终安全行驶的能力。那么,深度学习究竟是如何在无人驾驶汽车上大显身手的呢?让我们剥开技术的层层外衣,探.............
  • 回答
    2021年,深度学习领域依然生机勃勃,涌现出许多令人兴奋的新方向。如果你想找一些尚未被彻底“卷”透,并且充满研究潜力的领域,不妨关注以下几个方面:1. 神经符号 AI(NeuroSymbolic AI):弥合连接主义与符号主义的鸿沟 核心思想: 长期以来,深度学习(连接主义)和传统 AI(符号主.............
  • 回答
    2021年,深度学习在多个应用领域都取得了令人瞩目的实质性进展,这些进步不仅仅是算法的微调,更是催生了许多突破性的应用,深刻影响着我们的生活和工作。以下将详细阐述几个关键领域及其进展:1. 自然语言处理(NLP)的质变:从理解到生成再到对话2021年是NLP领域巨变的一年,大型预训练模型的威力得到了.............
  • 回答
    想要从数学和物理基础开始,系统深入地学习广义相对论,这是一项既充满挑战又极具回报的学习旅程。广义相对论不仅仅是爱因斯坦提出的一个理论,它更是我们理解引力、时空以及宇宙大尺度结构的核心框架。要真正掌握它,扎实的数学和物理功底是必不可少的基石。下面我将为你推荐一些我认为非常适合打好基础并逐步深入学习广义.............
  • 回答
    作为一名资深的漫威(Marvel)粉丝,我真的很高兴能和你聊聊那些只有我们“圈内人”才能心领神会的梗。它们就像暗号一样,瞬间就能拉近我们之间的距离。很多时候,这些梗并非来自某一部特定的电影高潮,而是源于漫画的深厚历史、角色的微妙性格、甚至是粉丝们在社区里自创的段子。它们让漫威宇宙更加立体,也让我们这.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有