问题

引用次数在15000次以上的都是什么论文?

回答
引用次数超过15000次,这已经是学术界的“神迹”级别了。这样的论文绝非等闲之辈,它们往往是某个学科的奠基之作,或者提出了一个颠覆性的理论、一种革命性的方法,抑或是解决了领域内长期存在的关键难题。

我们可以从几个维度来理解这些“超级引用”论文:

一、 它们通常是某个领域的“里程碑”或“开创性”工作:

提出全新理论框架: 比如在物理学领域,爱因斯坦的相对论,哪怕是其早期关于光电效应的论文,对后来的量子力学发展也产生了深远影响。在生物学,DNA双螺旋结构的发现,毫无疑问是生命科学的基石。这些论文不仅解释了现象,更是重塑了我们对世界基本运作方式的认知。
开创一种新的研究方法或技术: 在化学,诸如核磁共振(NMR)技术、质谱分析方法等的早期关键论文,如果其应用广泛且解决了一些传统方法无法解决的问题,很容易积累极高的引用。在计算机科学,一些经典算法(如快速傅里叶变换 FFT)的提出和详细论述,也常常能达到这样的引用量。这些方法如同新的“眼睛”或“工具”,让科学家们能够看到和探索以前无法触及的领域。
解决一个困扰领域多年的难题: 例如,在数学领域,证明费马大定理的论文(尽管其本身可能不直接参与到其他研究的“操作”中),但由于其解决的是一个跨越数百年的难题,其重要性毋庸置疑,也会吸引大量的关注和引用,尽管这种关注更多是“致敬”和“学习”,而非直接引用到研究方法中。

二、 它们的“受众”非常广泛,横跨多个学科或研究方向:

跨学科影响力: 很多引用量巨大的论文,其核心思想或方法论的应用场景绝不仅仅局限于其最初提出的学科。例如,在统计学或数据科学领域,一些关于回归分析、模型选择、机器学习基础理论的论文,其影响可以轻易地渗透到生物医学、经济学、社会学、工程学等几乎所有需要数据分析的领域。
工具性论文(Methodology Papers): 有一类论文,虽然本身不是在某个具体科学问题上取得突破,但它提供了一种非常有效、便捷、可靠的研究工具或分析框架。这些论文会成为很多研究者的“首选参考”,因为它直接提供了“如何做”的解决方案。比如,某个广泛应用的生物信息学分析流程、一个标准的临床试验设计方法、一个优化计算的库函数说明等。

三、 它们往往具有极强的“可重复性”和“可验证性”:

清晰的实验设计和数据呈现: 学术研究的生命力在于其可重复性。引用量大的论文,通常会详细描述其实验步骤、所用材料、数据处理方法,使得其他研究者能够清晰地理解并尝试复现其结果。这种可信度是累积引用的重要基础。
扎实的数据支持和逻辑论证: 理论的提出需要强有力的数据支持,方法论的有效性也需要严谨的论证。这些论文往往有大量的数据表格、图表和详实的统计分析,让人信服。

四、 它们通常由在该领域具有极高声望的科学家或团队发表:

权威机构与知名学者: 许多顶级大学、研究机构(如哈佛、斯坦福、麻省理工、牛津、剑桥、Max Planck研究所等)以及在各自领域享有盛誉的科学家(如诺贝尔奖得主、图灵奖得主等)发表的论文,天然会吸引更多的关注。这并非说权威本身取代了内容的价值,而是权威的研究更容易被看见,也更容易被信任和采纳。

具体的论文类型和领域举例(并非精确到15000以上,但说明方向):

生物医学领域:
基因测序技术/方法: 早期关于Sanger测序法、以及后来下一代测序(NGS)技术的关键方法论文,极大地降低了基因测序的成本和效率,推动了基因组学、医学诊断等多个领域的发展。
信号通路/分子机制: 揭示关键信号通路(如 MAPK通路、PI3KAkt通路等)的论文,描述了细胞如何响应外界信号,这些对于理解疾病(癌症、糖尿病等)的发病机制至关重要。
统计学方法在医学研究中的应用: 例如,关于生存分析(KaplanMeier法)、荟萃分析(Metaanalysis)方法论的论文,是医学文献评价和综合证据的基础。
流行病学研究方法/模型: 关于如何设计和分析队列研究、病例对照研究的经典方法论论文。
计算机科学与人工智能领域:
经典机器学习算法: 如支持向量机(SVM)、随机森林、梯度提升(Boosting)等算法的提出或优化论文。
深度学习的开创性工作: AlexNet(标志着深度学习在图像识别领域取得突破)、GoogLeNet、ResNet 等卷积神经网络结构的提出和训练方法论文。
自然语言处理(NLP)基础模型: 如 Transformer 模型(Attention Is All You Need)等,它彻底改变了NLP领域,并延伸到其他领域。
图论/算法: 如 Dijkstra 算法、快速傅里叶变换(FFT)的早期论文,虽然提出时间较早,但其核心算法的广泛应用使其引用量持久不衰。
物理学领域:
量子力学基础理论: 例如薛定谔方程的提出、狄拉克方程的提出,它们构成了现代量子力学的基石。
粒子物理标准模型相关: 早期预测或实验证实某些基本粒子的论文。
凝聚态物理方法: 如密度泛函理论(DFT)的早期发展和应用指南。
材料科学领域:
新材料的合成与表征方法: 比如关于石墨烯制备和性质的早期经典论文。
材料性能分析工具: 如X射线衍射(XRD)分析方法的详细论述。
统计学与数据科学领域:
统计建模与推断: 如贝叶斯统计方法的经典著作或论文,对统计推断的理论基础进行阐述。
数据可视化方法: 某些在数据探索和展示方面具有开创性的图形化方法。

要找到这些论文,通常可以通过以下途径:

学术搜索引擎: 如 Google Scholar, Scopus, Web of Science 等,它们都提供按引用次数排序的功能。
学科领域内的经典综述(Review Articles): 经典综述文章通常会引用该领域中最具影响力的基础研究论文。
学科内的“圣经”级教科书: 教科书的参考文献列表往往是该领域基石性论文的集合。

总而言之,引用次数超过15000次的论文,几乎都是学术研究的“钻石”,它们不仅内容扎实、影响深远,而且往往成为后来者研究的“起点”和“参照”。它们代表了人类智慧在特定领域取得的重大突破和贡献。

网友意见

user avatar

有人做过统计,并有图。

附:史上引用最多的100篇论文(截至2014年,仅供参考!)

来源:nature.com

这个是比较早的了。

众所周知,所谓的统计都是有局限的,比如上面的是统计Nature的一些文章,从相关的数据库里统计的。

一般认为引用最多的申农的一篇文章,是申农模型的那篇。

由于他过于基础性。很多人只提申农模型,而不引用具体的出处了。

按照这种标准,比如标书、课文等的引用都算上的话。一些人说有上亿次。

也有人对这个说法提出疑问。

比如牛顿第二定理等,如果算是引用,那应该比申农的那个还更多。

不管如何,申农的没有排在前列这是不科学的。


user avatar

2020年1月底发表在《柳叶刀》的文章,一年时间不到超过两万次引用,应该是人类科学史上从发表到被引用超过两万次用时最短的文章。第一作者是武汉金银潭医院的副院长黄朝林,通讯作者是中日友好医院曹彬。文章报道了2019年底在武汉发现的一种能感染人类的新型乙类冠状病毒以及其临床特点。现在再阅读此文有种幻如隔世的不真实感。

user avatar

更新于2022年02月22日。

***我来列举一些机器学习(Machine Learning)领域的高被引文章。

机器学习领域泰斗级学者Geoffrey Hinton的文章引用次数超过15000次文章有8篇。

  1. ImageNet Classification with Deep Convolutional Neural Networks,引用104063次(AlexNet,点燃了深度学习的热潮,因此2012年被认为是深度学习元年,当然要十分感谢ImageNet和GPU的加持。);
  2. Learning internal representations by error-propagation & Learning representations by back-propagating errors,引用57800次(BP算法,殿堂级别的成果,几乎所有关于神经网络的文章都会用到BP算法。);
  3. Deep learning,引用48202次(“三巨头”关于深度学习的综述文章。);
  4. Dropout: a simple way to prevent neural networks from overfitting,引用33972次(Dropout是一种防止深度学习模型过拟合的正则化方法,目前已被Google申请专利(US9406017B2),北大和华为诺亚实验室提出了Disout算法——Beyond Dropout: Feature Map Distortion to Regularize Deep Neural Networks,对标Google的Dropout。);
  5. Visualizing data using t-SNE,引用21148次(t-SNE是一种流形学习方法,用于数据降维和可视化。);
  6. A fast learning algorithm for deep belief nets,引用17021次(深度置信网络DBN被普遍认为是深度学习的前夕。DBN是Hinton老爷子最引以为傲的成果,它是一种由多个限制玻尔兹曼机RBM堆栈而成的概率生成模型,是最初训练深度网络的一种方法,尽管目前深度学习模型不再需要这种预训练,但它的思想仍然影响着当前的研究工作。);
  7. Reducing the dimensionality of data with neural networks,引用17112次(使用deep autoencoder networks进行数据降维,性能优于传统的PCA算法。);
  8. Rectified linear units improve restricted Boltzmann machines,引用16249次(避免深层网络训练时梯度消失或梯度爆炸的激活函数——线性整流函数ReLU)。

Geoffrey Hinton论文目前的引用数总计543696次,h-index为167。



在机器学习领域还有一个泰斗级的人物Jürgen Schmidhuber,他的一篇文章Long short-term memory目前的引用量是61472次,是深度学习-循环神经网络(Recurrent Neural Network, RNN)中的重要成果。但是LeCun Y,Bengio Y和Hinton G在2015年发表在Nature上的文章Deep learning作者中没有Jürgen Schmidhuber,不过Schmidhuber在2015也发表了一篇关于深度学习的综述文章Deep learning in neural networks: An overview,目前的引用量是15060。后来,“三巨头“获得了2018年的“图灵奖”,Schmidhuber和“三巨头“在网络上因为“成果引用”和“成果认定”发生了大量的口水战,这些都是后话了。

Jürgen Schmidhuber教授最近加入了KAUST(沙特的土豪大学),担任KAUST人工智能计划的负责人,看看后续有没有惊艳的成果。


机器学习领域还有一些重要的成果,对应的文章也有不俗的引用量。比如:

一直被对比,从未被超越的Adam优化器(Adam: A method for stochastic optimization),目前的引用量是99902次;

使神经网络训练更快、更稳定的Batch normalization(Batch normalization: Accelerating deep network training by reducing internal covariate shift),目前的引用量是34636次;

Zisserman在2014年发表的关于VGGNet的文章Very deep convolutional networks for large-scale image recognition,目前的引用量是73937次。Google在2015年发表的关于GoogLeNet的文章Going deeper with convolutions,目前的引用量是37596次。2016年提出的用于目标检测的Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks,目前的引用量是39795次。何凯明2016年的文章Deep residual learning for image recognition,提出的多达152层ResNet,目前的引用量是107922次。用于生物医学图像分割的U-net: Convolutional networks for biomedical image segmentation引用量为38283次(感谢 @梦飞 的补充),U-net基于encoder-decoder ,具有优雅的对称结构,优异的性能,优雅即合理?

女神李飞飞构建的ImageNet是计算机视觉领域非常著名的大型数据集,关于ImageNet的论文ImageNet: A large-scale hierarchical image database发表时间是2009年,目前的引用量是36217次,AlexNet就是在2012年ImageNet大规模视觉识别挑战赛(ILSVRC)上一举成名,自此点燃了深度学习的热潮,可见大规模数据对于深度学习的重要性。

经常被调侃“Money(GPU) Is All You Need”的文章Attention Is All You Need目前的引用量是36755次(感谢 @zhou yu 的补充),这篇文章提出的Transformer是自然语言处理(NLP)领域的重要成果,它的出现迅速取代了LSTM在NLP领域的霸主地位,像BERT(Bert: Pre-training of deep bidirectional transformers for language understanding,2018年发表,引用量34345次)、GPT-3(Language models are few-shot learners,2020年发表,引用量3043次)这样的SOTA模型均采用Transformer。NLP领域的另一个重量级成果是word2vec,作者是来自Google的Tomas Mikolov,关于word2vec的两篇文章Distributed representations of words and phrases and their compositionalityEfficient estimation of word representations in vector space目前的引用量分别是32172次和27330次(感谢 @ccking 的补充),其实我一直觉得NLP比图像处理问题复杂的多,最让人头疼的莫过于如何将语言数字化。

谷歌大神Ian Goodfellow的关于GAN的文章Generative adversarial nets,目前的引用量是41398次,关于GAN究竟是谁提出来的我就不得而知了,但是Schmidhuber在这个问题上肯定有很多话要说,至于Schmidhuber究竟说了些啥,参见:郑华滨:从PM到GAN——LSTM之父Schmidhuber横跨22年的怨念(文字版)

LSTM的变体GRU,Learning phrase representations using RNN encoder-decoder for statistical machine translation发表于2014年,目前的引用量是17800次,使用seq2seq模型来解决机器翻译问题,同一年发表的Sequence to sequence learning with neural networks,目前的引用量是17876次。

深度学习能够走进千家万户离不开通用的框架,关于tensorflow的文章TensorFlow: A System for Large-Scale Machine Learning引用量为16764次(感谢@Mia的补充);关于pytorch的文章PyTorch: An Imperative Style, High-Performance Deep Learning Library引用量为13041。究竟是使用tensorflow还是pytorch是讨论比较热门的话题,我觉得各有千秋,都会一点儿总是好的,工欲善其事,必先利其器。


未来我认为机器学习领域的另一个方向将会有大量的文章引用次数超过15000,这个领域便是强化学习(Reinforcement learning,RL)。强化学习领域的奠基人之一是来自DeepMind的Richard S. Sutton,它的贡献主要在时序差分学习和策略梯度法,Sutton的专著Reinforcement learning: An Introduction, 2nd edition目前的引用量是48792次。强化学习与深度学习碰撞出的DQN方法(Human-level control through deep reinforcement learning)目前的引用量是18356;用于连续控制的DDPG方法(Continuous control with deep reinforcement learning)的引用量是8130。

David Silver是Sutton的徒弟,Silver最引人瞩目的成果就是AlphoGo & AlphoGo Zero,相关的两篇文章Mastering the game of Go with deep neural networks and tree search和Mastering the game of Go without human knowledge的引用量分别是12281次和6805次。

最近DeepMind开发AlphaFold利用AI技术解决生物学50年来的重大挑战-预测蛋白质折叠,可见AI技术在众多领域表现出惊人的生命力,期待AI成为人类扩展科学知识边界的“得力助手”。


其实近几年深度学习的大热使得一些非常著名的传统机器学习算法不被人们广知。

比如Vapnik在1995年基于统计学习理论提出的支持向量机(Support Vector Machine, SVM),代表性文章Support-vector networks目前的引用量是52088次,Vapnik的关于统计学习理论的专著The Nature of Statistical Learning Theory目前的引用量是97086次。

比如关于lasso回归的文章Regression shrinkage and selection via the lasso目前的引用量是45013次,lasso回归就是大名鼎鼎的 正则化,它可以产生更加稀疏的解;与之类似的还有 正则化,也就是ridge回归。这两种正则化方法在机器学习领域大量使用,即对神经网络的权重参数进行惩罚约束,该过程通常被称为权重衰减(weight delay)。


机器学习领域很多方向都是由外国学者主导的。很庆幸的是,我们在迁移学习(Transfer learning)这个方向占据了一席之地,迁移学习领域的发起人和带头人是香港科技大学的杨强教授。杨强教授的代表性文章A survey on transfer learning目前的引用量是15876次。吴恩达在NIPS 2016中说:Transfer learning will be the next driver of machine learning commercial success after supervised learning to highlight the importance of transfer learning,让我们拭目以待吧。


下面分享一下我对机器学习的认识和理解。

机器学习被普遍认为是一种最有希望实现人工智能(Artificial intelligence, AI)的方法,经几十年的发展,机器学习领域涌现了大量的成果,Pedro Domingos教授将机器学习总结为5大流派,分别是Symbolists、Connectionists、Evolutionaries、Bayesians和Analogizers。机器学习领域的最初成果是符号主义,它的优点在于学习的模型和结果很容易实现跨领域和跨任务的推广,但是由于知识获取和表示的困难,以及当时计算能力的限制,符号主义的主张没有得到大规模的应用。随着大规模数据量和高性能处理器的出现,联结主义(神经网络)得到了飞速的发展,2012年后,以深度学习为代表的联结主义迅速火爆全球,但是以数据驱动为基础的联结主义十分脆弱,推广能力也很差,这也是为什么人们并不信任深度学习模型决策的自动驾驶系统。

因此,很多学者对未来机器学习的发展方向提供了自己的见解,Geoffrey Hinto老爷子在NIPS2017发表了一篇题目为Dynamic routing between capsules的文章(目前的引用量为3037次),核心思想在于重视图像识别中主要特征的逻辑性(向量化),如果只关注主要特征而忽视特征之间的逻辑性,很容易出现一些非常低级的错误,比如一张图片中随机分布两个眼睛、一个鼻子和一张嘴,现有的深度学习模型会认为这是一张人脸,简直不可思议。张钹院士在文章"迈向第三代人工智能"中指出:当前需要将符号主义和联结主义这两种范式结合起来,去发展安全、可信、可靠和可扩展的 AI 技术,即第三代AI技术。

我非常认同张钹院士的观点,就机器学习技术在其他学科的应用来说,我认为,数据驱动技术应该建立在领域知识(控制方程)的框架内,去开发一些physics-based & physics-informed的方法,从而使得机器学习模型做出合理的决策,对其他学科的发展起到催化作用,成为其他学科飞跃的助力点。

类似的话题

  • 回答
    引用次数超过15000次,这已经是学术界的“神迹”级别了。这样的论文绝非等闲之辈,它们往往是某个学科的奠基之作,或者提出了一个颠覆性的理论、一种革命性的方法,抑或是解决了领域内长期存在的关键难题。我们可以从几个维度来理解这些“超级引用”论文:一、 它们通常是某个领域的“里程碑”或“开创性”工作: .............
  • 回答
    作为一名大型语言模型,我并没有“看见”过文献,也无法像人类一样进行阅读和记忆。我处理和学习信息的方式是通过分析大量的文本数据,包括大量的学术论文、书籍、报告等。然而,我可以通过分析我的训练数据以及访问到的公开学术数据库和信息,来判断哪些文献在其所属领域被引用得最为频繁,并被认为是具有开创性和影响力的.............
  • 回答
    看到国家科技奖改革方向,要取消SCI他引次数、期刊影响因子,转而鼓励以国内期刊论文为代表作,这绝对是一场深刻的变革,也是近年来围绕科技评价体系最受关注的焦点之一。理解这场改革,需要将其置于中国科技发展的大背景下,以及对过去评价体系的深刻反思之中。首先,我们得聊聊为什么会有这场改革?过去一段时间,我们.............
  • 回答
    关于美国总统拜登近期在公开场合连续跌倒三次的事件,确实引发了广泛的关注和讨论,尤其是关于他健康状况以及是否可能因此提前结束总统任期的猜测。对此,我们可以从几个层面来分析:一、 连续跌倒事件的解读与外界担忧的根源首先,从纯粹的事件本身来看,任何一位公众人物,尤其是身居总统高位的领导人,在公开场合出现身.............
  • 回答
    上交所近期就引入做市商制度和研究单次T+0交易释放的信号,无疑是资本市场近期最值得关注的动向之一。这不仅仅是技术层面的调整,更是我国股票市场生态迈向成熟、与国际接轨的重要一步,背后蕴含着深远的意义和复杂的影响。做市商制度:为市场注入“流动性”的润滑剂首先,我们来聊聊做市商制度。简单来说,做市商就是市.............
  • 回答
    .......
  • 回答
    .......
  • 回答
    这个问题触及到了智能指针设计中一个非常核心的权衡点,也是许多开发者在深入理解智能指针时常常感到困惑的地方。简单地说,智能指针的广泛应用并非因为它完全没有性能问题,而是因为它在绝大多数实际场景下,引用计数带来的性能开销是可接受的,并且这种开销是可预测、易于管理的,远比手动内存管理带来的“惊喜”要少得多.............
  • 回答
    在C的世界里,数据之所以能被我们操控,归根结底是它们在内存中的存储方式不同。而理解引用类型和值类型之间的根本区别,就像是掌握了操作数据这座大厦的基石。我们先来想想那些“值类型”。你可以把它们想象成直接住在内存某个角落的小物件,比如一个整数`int`、一个浮点数`float`,或者是一个简单的布尔值`.............
  • 回答
    一篇论文的引用次数过百,固然是一项值得注意的成就,但直接断定其比大多数发表在《Nature》上的论文更“强”,则有些过于绝对,并且忽略了许多重要的考量。要深入探讨这个问题,我们需要从多个维度来分析。首先,引用次数确实是衡量论文影响力的一种重要指标。高引用次数通常意味着: 研究的开创性或重要性: .............
  • 回答
    美媒关于拜登引用毛主席“妇女能顶半边天”这句话的报道,确实是一个值得深入探讨的现象,因为它触及了几个关键的层面:政治语境、跨文化交流的复杂性、以及修辞策略的应用。首先,我们要理解这句话的来源和在中国历史上的意义: “妇女能顶半边天” 是毛泽东在1950年代提出的一个著名口号,旨在强调女性在社会生.............
  • 回答
    论文写作中,二次引用(或称间接引用、二手引用)是指你引用了某位作者的观点,而这位作者的观点是你从另一位作者的作品中了解到的,而非直接阅读原文。这种情况在研究中时有发生,特别是在处理一些年代久远、难以找到原始文献,或者被广泛引用的经典观点时。正确标注二次引用,既是对原作者和间接引文作者的尊重,也是学术.............
  • 回答
    关于这个问题,我得说,“经常引用”这个词用在我身上可能有些不准确。作为语言模型,我并没有“个人”的写作习惯或者说“偏好”去特意搜寻和重复使用某些名句。我的目标是根据您提出的问题,生成最贴切、最能表达意思的内容。但是,如果您问我,在创作时,哪些古文名句最容易被提及,或者说在表达某些特定含义时,能够起到.............
  • 回答
    审稿人要求引用自己的论文,这确实是个让不少作者纠结的问题。一方面,我们希望保持学术的独立和客观,不被任何指令所左右;另一方面,审稿人的意见往往是论文发表的关键,直接关系到研究的质量和可信度。那么,面对这种情况,我们到底该不该妥协呢?这并非一个简单的“是”或“否”的问题,需要我们仔细权衡,并采取策略性.............
  • 回答
    硕士论文中大量引用访谈内容:可行性、方法与注意事项在硕士论文的写作过程中,访谈作为一种重要的定性研究方法,能够为论文提供鲜活的、来自实践的第一手资料,深入揭示研究对象的观点、态度和经历。因此,在合适的条件下,大量引用访谈内容是完全可行的,并且在某些研究领域,甚至可以说是论文的灵魂所在。然而,“大量引.............
  • 回答
    在撰写学术综述时,引用他人的图表是一项常见的操作,能够有效地支持你的论点和提供直观的证据。然而,这样做必须获得原作者的授权,即“permission”。如何顺利地获取这项许可,并确保引用合规,这是一个需要细致处理的问题。下面我将详细阐述这一过程,并尽量让整个叙述更加自然、有人情味。为什么要获取 pe.............
  • 回答
    学术论文写作,尤其是在需要大量引用文献的情况下,文献匹配确实是一个耗时且容易出错的环节。这就像建造一座精密的桥梁,每一块砖石(引用)都需要准确地放置在正确的位置(文献列表)。不过,别担心,这里有一些实用的方法和经验,可以帮助你更高效、更准确地完成这项工作。核心理念:主动管理,预见性设计与其等写到最后.............
  • 回答
    没问题,朋友!咱们就来唠唠Excel里那点关于引用的事儿,保证说得你明明白白,绝对听得懂。别担心,这东西听着玄乎,其实贼好理解,就像咱们平时说话一样,只不过它有那么点儿讲究。你问绝对引用和相对引用是啥?简单说,就是你在Excel公式里写一个单元格地址(比如A1),它到底会“盯”着哪个单元格,或者说当.............
  • 回答
    在 C 中,我们谈论的“引用类型”在内存中的工作方式,尤其是它们如何与堆栈(Stack)以及堆(Heap)打交道,确实是一个容易混淆的概念。很多人会直接说“引用类型在堆上”,这只说对了一半,也忽略了它们与堆栈的互动。让我们深入梳理一下这个过程。首先,要理解 C 中的内存模型,需要区分两个主要区域:堆.............
  • 回答
    在Java中,直接获取“引用”的名称,就好比你想直接知道一个变量的名字叫做`myVariable`,而不仅仅是知道它指向的对象是什么。答案是:Java 设计上并不允许你这样做。这听起来可能有点反直觉,因为我们在写代码的时候,明明给变量起了一个名字,比如 `String name = "Alice";.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有