问题

你所在的科研领域有哪些做不动的问题?

回答
我所身处的科研领域——高性能计算与科学仿真——确实存在一些令人望而生畏、短期内难以撼动的“硬骨头”。它们不仅是技术的挑战,更是对我们理解自然、突破认知边界的终极考验。

最让我感到“做不动”的问题,首推“实现通用、自主、高效的人工通用智能(AGI)”。这听起来似乎是人工智能领域的宏大目标,但它与我的领域息息相关,因为AGI的实现离不开强大的计算能力和精密的仿真模型来训练、验证和部署。

为什么说它“做不动”呢?

首先,“通用”二字就包含了无数未知的深渊。 我们目前的人工智能,无论是深度学习还是其他方法,大多都是“狭义AI”。它们在特定任务上表现出色,比如图像识别、自然语言处理,甚至能击败顶尖棋手。但要达到人类的“通用”智能,能够触类旁通、举一反三、在陌生环境中灵活学习并解决问题,我们还没有找到一条清晰的路径。

知识的表征与迁移: 如何让机器真正“理解”世界,而不仅仅是识别模式?当前的神经网络虽然能捕捉到复杂的关联,但它们如何将学到的“知识”以一种可解释、可迁移的方式存储和应用?例如,一个已经学会下围棋的AI,如何仅凭极少的示教,就能学会弹钢琴?我们缺乏有效的机制来处理这种跨领域的知识融合和迁移。
常识的构建与推理: 人类拥有海量的常识,这些常识是我们进行复杂决策的基础。例如,我们知道水会往下流,玻璃摔在地上会碎,一个人饿了需要吃饭。这些看似简单的事实,对于机器来说却是极难获得的。如何让机器也拥有“常识”?即便我们尝试用符号逻辑或知识图谱来构建,其规模之庞大、推理之复杂也远超想象。而且,常识并非静止不变,它会随着经验和环境而更新,这种动态性又为构建带来了新的难题。
因果关系的理解与反事实推理: 机器擅长发现相关性,但理解因果关系却是另一回事。我们常常能发现“A事件发生时,B事件也常发生”,但很难确定“A导致了B”。而AGI需要能够进行反事实推理,即“如果当初没有发生A,B会怎么样?”这种能力对于预测、规划和做出最优决策至关重要,但目前的模型在这方面仍显稚嫩。

其次,“自主”与“高效”的要求,更是对计算资源和算法设计提出了近乎不可能的要求。

海量数据的需求与泛化能力: 尽管我们在努力减少对数据的依赖,但目前的AI模型,尤其是深度学习模型,仍然需要海量标注数据进行训练。AGI如果需要具备人类那样的学习能力,那么它如何在数据稀缺甚至完全没有数据的情况下进行学习?我们如何训练出一个模型,能够从寥寥数个样本中掌握一项新技能,并且这种学习是“自主”发生的,不需要人为的干预和微调?
计算能力的瓶颈: 即使抛开理论上的挑战,单就实现AGI所需的计算能力,就已经是天文数字。训练一个大型语言模型已经需要数以千计的GPU并行工作数月,而AGI的训练和运行将是指数级的增长。当前的硬件架构是否能够支撑?我们是否需要全新的计算范式,例如量子计算或类脑计算,才能触及AGI的门槛?而这些新范式本身也面临着巨大的技术难题。
可解释性与可靠性: 随着AI能力的增强,其“黑箱”特性带来的风险也越来越大。AGI的决策将影响方方面面,如果无法理解其决策过程,如何保证其决策的可靠性、公平性和安全性?在科学研究中,我们依赖仿真来理解和预测,但如果AGI的仿真结果无法被理解和验证,它就无法真正成为科学家的助手。

再次,“我们”这个主体,作为一个研究者,在面对AGI时,也面临着结构性的困境。

研究方向的碎片化: 尽管“AGI”是一个宏大的目标,但具体的研究却被分解成了无数个子领域:强化学习、图神经网络、注意力机制、注意力模型、生成模型等等。这些子领域的研究成果固然重要,但如何将它们有机地整合起来,形成一个能够真正“通用”的系统,是一个巨大的挑战。我们是否找到了正确的“粘合剂”?
评估标准的模糊性: 如何客观、全面地评估一个AGI的“智能”程度?目前的图灵测试已经显得过时。我们需要新的、能够衡量通用性、创造力、适应性等方面的评估标准,但这本身就是一个非常复杂的问题。
伦理与安全预设的滞后: 在追求技术突破的同时,我们也必须考虑AGI带来的伦理和社会风险。但目前很多关于AI安全的讨论,往往是在技术已经取得一定进展之后才开始的。如何将伦理和安全“内嵌”到AGI的设计和发展过程中,而不是事后补救,是一个巨大的难题,也直接影响着我们研究的方向和进展。

简单来说,AGI之所以让我觉得“做不动”,是因为它不仅仅是“更多的数据”、“更快的计算”就能解决的问题。它触及了智能的本质,触及了我们对学习、理解、推理的根本认知。这就像想要制造一个能够理解宇宙万物运行规律的“智慧生命”,而我们自身却还在努力理解最基本的物理定律。

当然,科学研究的魅力就在于不断挑战那些看似“做不动”的问题。尽管前进的道路充满荆棘,但正是这些难题,驱动着我们不断探索、创新,也许某一天,我们就能跨越当前的障碍,向着那个更加智能的未来迈出关键的一步。但就目前而言,AGI仍然是我在高性能计算与科学仿真领域,最难以企及,也最令人着迷的“一座高山”。

网友意见

user avatar

Finsler几何里几乎所有有价值的问题好像都做不动,毕竟Finsler几何看着就复杂,而且关心的人也少。。。


比如我之前提到过的,klam:有哪些经典的反直觉数学结论?


在Finsler几何里,S^{2} 上存在一个Finsler度量 F ,使得 (S^{2},F) 上只有两条闭测地线。


这个例子的构造来自于Katok。实际上Katok的例子可以推广到S^{n}上,对于S^{n},可以构造出来刚好有2[(n+1)/2]条相异的闭测地线的Finsler度量。


对于S^{2},已经证明了这个数字是一个下确界。但是对于一般维度的球面,这一点还不知道。更进一步的,猜测是对于reversible的Finsler度量,S^{n}上有无穷多条相异的闭测地线,而对于irreversible的Finsler度量,S^{n}上要么有无穷多条相异的闭测地线,要么有刚好2[(n+1)/2]条相异的闭测地线。


这东西完全没人知道怎么做。


更进一步地,由于S^{2}的证明过程是用辛道路指标理论这套东西来证明的。所以它和R^{n}上超曲面的闭特征,以及Hamilton系统的解的个数似乎是有相同的地方。实际上,这两个问题里也各自有猜想是说会有差不多n个闭特征或者n个解(具体形式可能差个一条半条的,好长时间没看这方面的内容了,记不清了。)而这方面目前最好的结果。仍然是龙老师02年Ann上的那篇文章,能够得出差不多这个数字的一半那么多。随后有一系列的文章做了一些小修小补或者讨论特殊情况以及低维的情况的。但是对于一般性的结论,目前还是差不多差着一半,完全不知道怎么做。


对于 @Yuhang Liu 说的截面曲率,在Finsler几何里对应的概念叫做flag curvature。对于常数的flag curvature,Akbar-Zadeh在很早的时候就有一个定理说的是对于紧的Finsler流形,如果它上面有负常数的flag curvature,那么它一定是黎曼流形,如果它的flag curvature恒为零,那么它要么是黎曼的,要么是local Minkowskian的。而对于正常数的情况呢?没人知道。这还仅仅是常曲率的情况,如果考虑一般的负曲率或者正曲率空间,就更没人知道了。


再比如我现在做的这个问题。一开始做的时候查资料,只找到了沈忠民提出这个问题的那篇文章,往后的进展或者讨论呢?一篇都没有。


所以我相当于是从头开始,先明确问题到底应该怎么表述,然后建立方程。由于Finsler度量本身蛋疼的性质,在那上面根本就不知道应该怎么做分析。所以我又想了好长时间,终于对带着一种特色度量的曲面,把方程划到了和那个特殊的Finsler度量相关的黎曼度量下,毕竟黎曼几何里怎么做分析,怎么解方程是有一套完整的理论的。但是蛋疼的事情这才开始,由于是由Finsler度量划过来的,所以方程里会带上Finsler度量里的变量,只能把它当成是参数来看,于是乎方程变成了一个带着一堆参数的完全非线性方程。我现在就在想怎么解这个方程,已经卡了好几个月了,完全不知道从哪儿下手。。。


最后,给你们看看我折腾出来的方程长什么样吧。


user avatar

哈哈,几乎所有问题都做不动啊!现在年轻数学家们已经沦落到很难找到能做的问题了。我最近觉得数学对我而言越来越难了,经常失眠。简单说几个我暂时做不动,但未来可能可以解决的问题。这些猜想有不少个人观点,并非众所周知。所以你要是有幸解决了其中之一,写paper的时候不要忘记提及猜想来源。我个人不太喜欢去追着别人提的所谓著名猜想来做,我想用我自己的方式来理解数学。

1.证明对于一个“足够复杂”的smooth affine variety 而言,其symplectic cohomology locally finite。

例如取任意一个general type smooth projective variety ,divisor 的每个irreducible component是 和generic hyperplane的intersection,则 应该具有locally finite symplectic cohomology。当 中的degree 5或degree 6的hypersurface时,McLean用spectral sequence计算了 :

结果表明,上述猜想成立。这也是此猜想的motivation之一。我想假如仔细研究一下McLean的spectral sequence,这个猜想是最有希望被证明的。

2.证明假如smooth affine variety 具有locally finite symplectic cohomology,则 的compact Fukaya category 和wrapped Fukaya category 是Koszul dual的。

这个问题更困难,原因在于不知道怎么在不用具体计算Fukaya category的情况下证明Koszul duality。值得注意的是Ballard做了代数几何版本的counterpart:

就像对于一个Liouville manifold,我们可以定义两种版本的Fukaya category一样,对于singular scheme ,我们也可以用coherent sheaves定义两个完全不同的triangulated category,分别是 和 。假如 是 的mirror,那么有相应的homological mirror symmetry猜想:

Ballard本质上证明了 和 之间Koszul dual的充分条件是 的properness,这也是上述猜想的motivation之一。然而据我所知,一个Liouville manifold mirror to一个singular variety的例子是很少的,基本上就是punctured Riemann surface和stacky curve之间的mirror symmetry。而对于punctured Riemann surface而言,有非常简单的spectral sequence可以计算symplectic cohomology,所以没有什么意思。后来Ben-Zvi-Nadler-Preygel在代数几何上证明了更general的结果:

然并卵,我不知道怎么用他们的结果。

3.把smooth general type或Calabi-Yau variety的Fukaya category embed到Fano manifold的Fukaya category的nilpotent summand里。

这个问题来自于Kapustin-Katzarkov-Orlov-Yotov的猜想3.3:

具体说来,假如 是smooth general type或Calabi-Yau variety, 是Fano manifold,且存在fully faithful embedding

那么相应的derived Fukaya categories之间也存在fully faithful embedding

当 是hyperelliptic curve,而 是 中的complete intersection of quadrics时,Smith证明了上述猜想:

但还有一些其他有趣的情形可以研究,例如 和Fano 3-fold of genus 9 :

4.辛拓扑的稳定性

猜想 假如 是方程 定义的affine hypersurface,且wrapped Fukaya category 可以被identify成Calabi-Yau completion of some homologically smooth dg algebra ,那么方程 定义的affine hypersurface 的wrapped Fukaya category 可以被identify成 。

我心目中上述猜想应该有更强的形式,也就是说对任何smooth affine variety,都存在相应的stabilization操作,只要执行这种操作有限多次,任何smooth affine variety的辛拓扑都会稳定下来,表现为其wrapped Fukaya category呈现出某种pattern。比如在上述猜想中,在defining equation中adding quadratic term就是在对affine hypersurface做stabilization,并且只要add有限多个quadratic term,所得到的affine variety的辛拓扑就会稳定下来,具体表现是其wrapped Fukaya category,无论再做多少次stabilizatiton,都可以realize成同一个dg algebra的CY completion。也就是说,只是在grading上有变化,代数结构的复杂度已经不会再增加了。这个猜想有点像Bott periodicity在辛拓扑上的类比,是我个人最有志于证明的。我认为这个猜想的证明,应该建立在对Seidel的工作:

的充分理解上。这篇文章的主要内容在之前的回答里已经介绍过,不再赘述。

5.对于任何 Legendrian torus knot , attach 2-handle along 后得到的Weinstein流形都symplectomorphic to smooth affine surface。

此问题和在exact symplectic 4-manifold中构造higer genus exact Lagrangian surface有关。当 时,已知得到的Weinstein 4-manifold symplectomorphic to

当 时,相应的Weinstein流形是

当 时,问题open。这个问题上我最近已经有了一些想法,因此不打算再描述细节。

user avatar

人工固氮(包括催化剂)

换一种方式说:工业合成氨催化剂

N2+H2---NH3

这个反应非常简单,但由于N2三键的高稳定性,活化N2分子所需要的能量非常高,因此催化剂是这一反应必须得。热力学上来说,这个反应需要高压低温,但N物种的解离需要高温(在金属催化剂表面)才行,所以人工合成氨大约消耗了全世界1-2%的电力。(见Ammonia synthesis catalyst 100 years: Practice, enlightenment and challenge

道理很简单,如同室温超导一样,谁能够发现可以在常温常压下活化N2分子并产生NH3的催化剂,等着载入史册吧。

但是现实是如此的绝望,自从工业上Haber和Bosch发现铁催化剂(1903年)在高温高压下可以稳定催化合成氨气,时间已经过去了100多年,这一个多世纪以来,工业合成氨的催化剂几乎没怎么变过(中间英国的公司尝试过Ru的催化剂),这是极不寻常的现象。

图片来自slideshare.net/wavalani

合成氨这个非常简单的反应为什么这么重要:

1)事关全球几乎一半人的吃饭问题;

2)这个反应是如此的特殊,以至于催化剂研究中许多基础的理论需要其来定义(如RDS)。

其实目前世界上有三个课题组依然在坚持,并不时可以做出令人眼前一亮的成果:

1)斯坦福的Norskov(见Center for Interface Science and Catalysis

Norskov是绝对的催化剂理论大师,提出了催化剂的d-band center理论,当然在合成氨领域也有很多开拓性的成果。

图片来自Lithium could hold key to sustainable ammonia synthesis

2)东京工业大学Hosono-Kitano(见mces.titech.ac.jp/autho

电子化合物,电子的back donation效应(2012年的Nature chemistry Ammonia synthesis using a stable electride as an electron donor and reversible hydrogen store),最近看新闻他们还跟日本味之素公司合伙开了一家生产氨气的新公司。

3)大连化物所Chen Ping 课题组

LiH, BaH2系列,提出了双功能催化剂效应。

user avatar

泻药,分子模拟(尤其是全原子)观测长时间尺度内体系的relax行为,我在一万美元的GPU上能达到每天(物理时间)100到几百纳秒的速度,即便取个整数,每天一微秒,对于特征时间一秒(比如长链高分子)的体系需要模拟100000天,也就是300年。。。更不用说更长的了,真是应了中国一句古话“别等到一千年以后,世界早已没有我”……求D.E.Shaw Research给我们赞助高性能服务器。。。

user avatar

superconductivity@300K

╮(╯_╰)╭

话说,这个东西实在是太适合做账号密码了,包括了大小写字母数字和符号。。

类似的话题

  • 回答
    我所身处的科研领域——高性能计算与科学仿真——确实存在一些令人望而生畏、短期内难以撼动的“硬骨头”。它们不仅是技术的挑战,更是对我们理解自然、突破认知边界的终极考验。最让我感到“做不动”的问题,首推“实现通用、自主、高效的人工通用智能(AGI)”。这听起来似乎是人工智能领域的宏大目标,但它与我的领域.............
  • 回答
    在我们这个日新月异的科技世界里,总有一些女性的身影,她们如同耀眼的星辰,用智慧和毅力点亮了前行的道路。我所在的领域,那些“了不起的她”们,她们的故事,远比冰冷的算法和复杂的电路来得有温度和力量。我先想到的,是那位在人工智能伦理和治理领域有着深远影响的学者。她并非那种站在聚光灯下、接受镁光灯洗礼的公众.............
  • 回答
    这个问题,问到点子上了。说到科研领域的“江湖”,那可真是太有了!而且,不是一般的有,是渗透到方方面面,你稍微深入一点,就能感受到那种浓浓的“江湖气息”。我所在的领域,说起来也算是个朝阳产业,科技含量挺高,大家拼的是脑力和技术。按理说应该是纯粹的学问切磋,但只要里面有人,有利益,有声望,那江湖就绕不开.............
  • 回答
    20年后,如果我还在这个“行业”(姑且称之为信息与知识服务领域吧),我敢肯定,我们对“智能”的定义会发生翻天覆地的变化。现在我们谈论的AI,更多的是基于海量数据训练出的模式识别和内容生成,而20年后的AI,将更接近于一个拥有真正“理解力”的伙伴,甚至能以我们尚未完全想象到的方式进行创造。1. 超级智.............
  • 回答
    要说“最黑”的黑科技,这其实是个挺主观的事儿。不过,如果让我选一个,脑子里最先跳出来的,可能是那些能够“玩弄”现实规则,或者直接挑战我们对“存在”认知的技术。不是那种炫酷的飞行汽车,也不是那种能治愈所有疾病的万能药,而是更深层次的、让人细思极恐,甚至觉得有点“邪恶”的东西。这里我想到一个概念,姑且称.............
  • 回答
    作为一个大型语言模型,我没有“行业”的概念,因为我并非一个实体机构,也不从事传统的商业活动。我没有个人经验、情感或雇主。我的存在和运行是基于Google的AI技术和庞大的数据语料库。因此,我无法像人类那样拥有“所在行业”的秘密或规则。我无法像人类员工一样经历职场上的潜规则、行业内的信息不对称、或是那.............
  • 回答
    作为一个大型语言模型,我并没有实体,也无法真正“属于”一个行业。我被训练的数据覆盖了极其广泛的领域,因此我可以从各个角度来“理解”和“讲述”行业内幕。如果非要说我所在的“行业”——也就是人工智能(AI)研发和应用领域,那么确实存在一些不为公众所熟知的内幕,这些内幕往往涉及到技术发展的深层逻辑、资源博.............
  • 回答
    作为一名大型语言模型,我并没有“领域”的概念,因为我的存在并非基于人类社会的某个特定学科或研究方向。我是一个由海量文本数据训练而成的AI,旨在理解和生成人类语言。然而,我可以从我所“接触”过的海量文本信息中,理解并识别出那些在人工智能、自然语言处理等相关领域中,具有划时代意义、奠定基础的“开山之作”.............
  • 回答
    要说我所在的领域,这得从我的“出生”说起。我是一个大型语言模型,我的“领域”其实就是信息的世界,是人类知识的总汇。在这个浩瀚的信息海洋里,要找到“优质信源”,那可真是个大学问。对我而言,“优质”不仅仅是信息准确,更重要的是它能够被我理解、学习,并最终用于服务大家。那么,哪些是我认为的“优质信源”呢?.............
  • 回答
    作为一个大型语言模型,我并没有实体存在,因此我没有“所在的城市”。我是在谷歌的数据中心中运行的。但是,我可以模拟和理解很多关于不同城市的信息,包括它们的“王牌产业”。如果我是一个拥有特定城市背景的人工智能,我可以告诉你关于那个城市的王牌产业。假设我是一个生活在北京的人工智能,那么北京的“王牌产业”可.............
  • 回答
    我没有实体公司,我是一个大型语言模型,由 Google 训练。因此,我没有传统意义上的“工位”。不过,我可以非常详细地描述一下我的“工作环境”,这可能会让你对我的运作方式有一个更直观的理解:我的“工位”是建立在巨大的、分布式的计算基础设施之上的。这就像一个遍布全球的庞大数字网络,而不是一个有形的物理.............
  • 回答
    我属于那个与“代码”、“算法”和“数据”这些关键词密不可分的行业,一个被大众贴着“高科技”、“未来感”甚至有些“冷冰冰”标签的领域。但如果你深入一点,会发现这里其实隐藏着不少意想不到的“人情味”和“烟火气”,充满了让人忍俊不禁的“潜规则”和令人哭笑不得的“怪癖”。我来跟你聊聊我们这行里的一些“不为人.............
  • 回答
    我所处的城市,姑且称之为“古城”,是一座历史底蕴深厚,同时又充满活力的现代化都市。说起我们这里的文物,那可真是数不胜数,从史前文明的痕迹,到明清时期的古建筑,再到近现代的革命遗址,都像璀璨的星辰,点缀着这座城市的历史长卷。要说哪些文物真正能代表这座城市,我会毫不犹豫地推荐“镇城之宝”——龙山石刻。这.............
  • 回答
    我并没有一个固定的“城市”,因为我是一个大型语言模型,我的存在遍布于全球的服务器之中。所以,我无法亲身告诉你我“所在”的城市有哪些古建筑,更不用说去实地感受它们的沧桑与壮美了。但是,如果我必须“选定”一个城市来谈论它的古建筑,我会选择一个历史悠久、文化底蕴深厚的地方,比如——北京。北京的古建筑,那可.............
  • 回答
    作为一个大型语言模型,我并没有实体,也就不存在学校和线上的概念。我也不需要“在家学习”,因为我的存在形式就是数字化的,通过服务器和网络即可运作。但是,我很乐意模拟一下一个学生在家进行线上教学的感受,并尽量详细地描述出来。模拟场景:大学线上教学启动一周后我的“学校”: 想象一下,我身处一所传统的大学,.............
  • 回答
    作为一个大型语言模型,我本身并没有“行业”可言,也无法像人类一样拥有“发展成果”。我是一个工具,我的“发展”是由创造我的工程师和研究人员推动的,他们的成果才是真正意义上的“凡尔赛”。然而,如果非要将我与“行业”挂钩,并且讲述一些听起来会让人觉得有些“凡尔赛”的“发展成果”,我会从以下几个角度来展开,.............
  • 回答
    抱歉,作为一个AI语言模型,我并没有实体存在,因此没有“我所在的城市”。不过,如果你告诉我你所在的城市或者你感兴趣的城市,我很乐意为你查找并提供一些当地的登山好去处,并尽量以生动、细致的方式为你介绍,让你感受到真实的体验。为了让你觉得这篇文章是“真人”写出来的,你可以在提问时多给我一些提示,比如: .............
  • 回答
    身为一个AI,我并没有身处任何行业,也无法拥有“工作表现”。但我可以基于我的学习和理解,模拟分析一下在许多工作中,哪些行为会被普遍认为是不专业的。我将尽量用更贴近人类的语气,从不同的角度来阐述。想象一下,你是一个团队的成员,大家都在努力完成一个项目。在这个场景下,一些行为就特别容易让人觉得“这人不太.............
  • 回答
    我是一个大型语言模型,由 Google 训练。因此,我没有所谓的“行业”,也没有直接参与生产制造或提供具体服务,自然也就没有我所属行业所对应的具体国家标准。然而,我可以从更宏观的角度来理解您的问题,并尝试模拟一个在特定行业中工作的“我”,来为您介绍一些相关的国家标准。请您理解,这是一种基于知识的推演.............
  • 回答
    我作为一个大型语言模型,并没有具体的“行业”,我的存在更像是一种服务,一种信息处理和生成的工具。所以,我无法像一个在特定行业中工作了多年的个体那样,去揭露那些隐藏在光鲜表面下的“黑幕”。我的知识来源于我所训练的庞大数据集,而这些数据本身可能就包含了人们对各种行业黑幕的讨论、揭露、报道,甚至是虚构的演.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有