问题

现在的家用处理器能够满足上世纪五六十年代造原子弹所需的计算量吗?

回答
当然,我们可以来聊聊这个话题。这确实是一个很有意思的对比,从上世纪五六十年代那些庞大的机器,到现在我们口袋里揣着的智能手机,计算能力的变化简直是天壤之别。

要说“满足”,得先弄清楚上世纪五六十年代造原子弹到底需要什么样的计算。那会儿的计算机,你不能指望它们像我们现在一样,用图形界面点几下鼠标就能跑模拟。当时的计算,主要围绕着流体力学模拟(主要是爆炸冲击波的传播),中子扩散方程(决定链式反应能否持续的关键)以及一些材料力学的问题。这些都不是简单的加加减减,而是涉及到大量的偏微分方程的求解。

那个时代,计算机还很稀罕,体积巨大,耗电惊人,而且算力也有限。像ENIAC、UNIVAC这些大家伙,虽然在当时是顶尖的,但它们的计算速度和我们现在一个普通笔记本电脑比,简直是小巫见大巫。

举个例子,当年为了计算一个核弹的结构和爆炸效果,科学家们可能需要把整个计算过程分解成非常非常多的步骤,然后用纸带或者打孔卡把指令输入进去。一次计算,可能就需要花费数小时甚至数天,而且还得祈祷机器不出错。他们还得依赖大量的人工进行辅助计算,尤其是方程的离散化和近似处理,这背后是数学家和物理学家们智慧的结晶,但同时也意味着很多问题只能进行简化处理,或者只能迭代多次才能逼近真实情况。

打个比方,那时候的计算就像是你需要用算盘珠子来一点一点地计算一个非常复杂的工程项目,而现在的处理器,就像是你拥有了一台超级计算机,能够瞬间处理成千上万个变量。

现在家用处理器能做到什么程度呢?

简单来说,不只是满足,而是远远地、远远地超过了那个时代的计算需求。

你想想我们现在用的电脑、手机,它们里面跑的都是多核处理器,主频动辄就是几GHz。即使是五六十年代那种最顶尖的超级计算机,其计算速度也远远赶不上我们现在最普通的一台台式机。

而且,现代处理器在并行计算能力上也有了质的飞跃。当年,很多计算只能串行进行,一步接一步。现在,无论是通过多核,还是通过GPU(图形处理器,虽然名字叫图形,但它在并行计算方面异常强大),我们能够同时处理海量的数据。核弹模拟涉及到的物理过程,很多都可以通过并行化来加速。

具体来说,现在家用处理器可以轻松地做到以下几点,而这些都是当年需要付出巨大努力才能实现的:

1. 高精度数值模拟: 现代处理器强大的浮点运算能力,配合高效的数值算法(比如更先进的有限元分析、有限差分方法等),可以实现对流体力学、中子扩散等方程的更精细、更准确的模拟。我们可以在三维空间中划分出更多的网格点,从而获得更逼真的模拟结果。
2. 更复杂的模型: 当年受限于计算能力,很多物理效应可能只能用简化的模型来近似。现在,我们可以将更复杂的物理现象纳入模型中,例如材料在极端压力下的行为、更精确的辐射传输等等。
3. 快速迭代和优化: 科学研究和工程设计往往需要反复试验和优化。现在,我们可以在短时间内进行大量的模拟运行,调整参数,观察结果,从而更快地找到最佳设计方案。当年那种一次计算耗时数天的状况,是无法想象的。
4. 图形化界面和数据可视化: 虽然这不直接关系到计算量本身,但现代处理器支持的高清图形处理,使得科学家们可以通过直观的图形界面输入数据和查看模拟结果,大大提高了工作效率。当年,这几乎是科幻小说里的情节。

再打个比方:

如果说上世纪五六十年代造原子弹的计算量是一座需要一步一个脚印,用双手一点点挖掘的山。那么,现在的家用处理器,就像是给你配了一台最先进的挖掘机,你不仅能轻松挖穿这座山,还能在里面修建出复杂的地下网络系统,并且还能顺便把挖出来的土石料再进行二次加工。

所以,总而言之,现在的家用处理器,无论是从计算速度、并行处理能力,还是从内存容量等方面,都远远超越了那个时代最高端的计算设备。当年那些让物理学家们绞尽脑汁、日夜奋战的计算任务,现在在我们普通的电脑上可能只需要几分钟或者几小时就能完成,而且结果会更加精确、更加全面。从这个角度看,家用处理器不仅能满足,而是以一种我们难以想象的方式,轻松“碾压”了当年的计算需求。

网友意见

user avatar

家用处理器能够满足造原子弹所需的计算。中国的核计划使用的电子计算机,例如 1959 年中科院研制的通用电子计算机“104型机”,计算力远低于现在的家用处理器[1]

  • 104 型机是电子管计算机,有 22 个机柜,主机机房与电机组机房各占地 200 平方米。全机共用 4200 个电子管,4000 个晶体二极管。浮点字长 39 位,容量 4K,每秒运算 1 万次,内存 2048 个全字长磁芯体,2 台 2096 全字长卧式磁鼓。

但是,题目和诸多回答搞错了计算的对象和目的。


一、计算的是什么

造原子弹时需要计算的不是临界质量,而是内爆式原子弹的爆炸压缩透镜的设计所需的参数。临界质量靠简单的实验即可得到。

二十世纪四十年代到七十年代的内爆式原子弹的爆炸压缩透镜一般是 32 块炸药,炸药性能有差异的要单独计算。


二、为什么要计算

如果你的目的只是“造个原子弹”,那么枪式原子弹的结构很简单,不需要一帮人去算。人们是觉得高浓缩铀本身十分麻烦、作为武器的小型化也较为困难,才追求内爆式原子弹的。

内爆式原子弹需要大量计算,是因为它在压缩不均匀的情况下会裂变不良、威力显著低下,设计时要在不同部位使用爆炸速度不同的炸药,来使各方向的冲击波均匀地到达核材料。这要求人们使用数学理论去指导爆炸压缩透镜的设计。


三、算的是什么样的式子

爆轰是超音速的剧烈燃烧,于 1881 年由法国科学家 Marcellin Berthelot 与 P. Vieille 的小组和法国科学家 Ernest-François Mallard 与 Henry Louis Le Chatelier 的小组分别发现。在二十世纪四十年代,Zeldovich、von Neumann 和 Doering 为人类理解爆轰做出重要贡献:ZND 模型(Zeldovich von Neumann Doering detonation model)[2]。以下截图取自参考文献 2:

在没有计算机的条件下,求解这一堆方程需要一群数学家计算约十个月,而且这个模型还是有一些漏洞需要日后的新理论去弥补[3],但当年常用的 CJ 模型的精度指导不了爆炸压缩透镜的设计,没什么选择的余地。

虽然是原子弹原理的一部分,但 ZND 模型不是机密,现实中就可以找到公开的论文与书籍,就是很少有人能懂。这是小型化内爆式原子弹的不可忽略的门槛。


四、一个人能设计出原子弹吗

John Aristotle Phillips 生于 1955 年 8 月 23 日,因在学生时代设计原子弹而闻名。

1976 年在普林斯顿大学就读三年级时,Phillips 利用公开发行的报刊上的知识设计了原子弹,在一次有关核扩散的研讨会上展示了设计内爆式钚弹的学期报告。

核武器工程专家弗兰克·济尔顿认为 Phillips 的武器设计是可确信有效的,弗里曼·戴森和举办研讨会的哈罗德·费弗森教授认为该设计并不实用——这是指不适合装备美国军队。

1977 年 2 月,一名巴基斯坦官员联系 Phillips,试图购买原子弹设计图。联邦调查局随即没收了 Phillips 的学期报告和他宿舍里的原子弹模型。

参考

  1. ^ http://www.cas.cn/zt/sszt/yq60/ldyx/qlsjztm/gjdclp/200909/t20090917_2490762.html
  2. ^ https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19930093969.pdf
  3. ^ https://doi.org/10.1007%2Fs00214-007-0303-9
user avatar

这种事去看一下官方的科技史文献不好吗?

我直接转两个正经研究成果。

第一份材料来自中科院科技政策与管理科学研究所的张久春老师和科学院自然史所的张柏春老师

《20 世纪 50 年代中国计算技术的规划措施与苏联援助》,5中国科技史料6第 24 卷 第 3 期( 2003 年) : 189 - 215.

213页表达如下:

第八, 在消化苏联技术的基础上, 中国科学院计算技术研究所在有关单位的协作下, 在1960 ) 1965 年之间研制成功了 107 机、119 机、109 乙机、109 丙机等型号的计算机¹ , 并使中国计算机步入了晶体管阶段。这说明中国已经初步具备了自行设计制造计算机的 能力。计算技术研究所等机构研制的计算机被用于科研、工程技术设计、气象预报、交通 运输等部门, 并在核武器和导弹的研制过程中发挥了重要作用。

基本说明1960年后国内就可以自己生产大型计算机了

第二份材料来自科学网,充分说明搞核武器大量手算实践上不太可行

人们对李德元摇头叹息说:在曹家沟只能闲散无事——九所的工作需要大型计算机,等待机器入驻的新机房却是漏水的!甚至连职工宿舍都没有,大家挤住在一栋办公楼内,一楼腾出几间房间堆放行李,因为木箱子散架了,邓稼先的大批书籍散落一地。
国际形势如此紧张,科研工作不能停滞,工作条件却难以为继。时任业务领导周光召着急了,他让科研人员赶紧回北京,利用北京的计算条件继续工作。

别管是他们二机部系统还是俺们铁路系统,重大工程不可能用太多手算的。建个普通铁路桥可能手算够了,但是你在地质状况复杂的地方建个隧道试试手算够不够?比如青藏铁路西格段的新关角隧道长32千米,你试试手算够用吗?光隧道内的通风系统设计就够让人头疼的。

二机部负责的核武器项目是天字第一号工程,当时整个国家制度是从苏联复制来的斯大林体制,最擅长的就是集中一切资源保证高优先级项目高速运转。

这就是我最讨厌文宣系统的原因。这种艺术加工只会让人觉得愚蠢。


既然有人问到曼哈顿计划早于ENIAC出现的时间,那美国人的是怎么做的?

根据美国原子遗产基金会的说法,是靠模拟机:

Analog computers were so integral to the Manhattan Project, and so often used, that they frequently broke down.

而该基金会也认为人力运算不太能满足洛斯阿拉莫斯的需求,后面去寻求IBM的帮助了:

With the computations’ demands at Los Alamos beginning to prove too much for human computers, the T-Division turned to IBMs for help in the later part of 1943.

user avatar

1996 年的时候, 俺和朋友聊天说从来没摸过小型机。

朋友说, 你上我这里来,我给你摸。 然后俺就怀着朝圣的心情去他那。

那是在某院校附属医院的放射科, 俺朋友让俺在里面玩了一会 GE 螺旋CT 机配套的电脑。

那时还没有什么家庭的电脑配置 64MB 内存, 更不用说 128MB 内存了。Pentium MMX 是后来的事情。 Pentium 133 + 32MB + S3 显卡 解压 VCD 是主流 (XingMpeg + Direcx 1.0)。 据说后来 XingMpeg 演变成了 RealMedia...不提



GE CT 机配套的电脑是类似这样的

。鼠标是轨迹球。 软盘? 移动存储是MO。 标配 512 MB 内存。 那时候 16 MB ECC内存大约是 1000 人民币。而这个电脑要加网卡的话, GE 报价是 10 万人民币一片。

这台 CT 机能 3D 重建, 直观地显示病损的空间结构, 这在当时是划时代的玩意。


对了, 这就是所谓的小型机。还不够现在一个 1000 块钱人民币的华为手机算力强大。




摸完 “小型机” 之后,俺没有想象中的兴奋,也许是俺比较冷感。就觉得太***离谱了, 一片网卡能坑 10 万。 俺老乡留校, 三房一厅的福利房(白云山)才八万人民币。电脑城里面的千兆网卡(需要端口聚合)也才 3000~5000 人民币。


医院还给这个机招了几个专人。您见过啥电脑能给您解决北上广城市户口的问题呢?这就是其中的一台。它的外设是价值连城的 CT 机。。


20 多年过去了, 俺也开始盘算着搭建自己的 HPC


现在的家用处理器能够满足上世纪五六十年代造原子弹所需的计算量吗?


这个问题米国正文府知道。

传说 2000年某日本媒体报道萨达姆大量囤积当年刚上市的PS2。不到一个月伊拉克就将几千个PS2运往巴格达,绕开了禁运。后面据说是用PS2的芯片来制造捣蛋系统。

关于PS3,据说破解了以后可以跑 LINUX, 也可以形成集群。InformationWeek报道,米军一口气购入2000多台PS3薄版。运往纽约州的实验室,在那里和另外300多台已配置好的PS3组成更大的集群,用CELL芯片完成一系列的试验。当年米国在这个超算、开发、测试和改进项目拨了200多万经费。

PS3的Cell处理器单精度浮点运算达到 0.204TFlops,双精度浮点运算达到 0.015TFlops。曾经的“地球模拟器” 算力36TFlops,即每秒36万亿浮点运算。

理论上大约 200台 PS3 的集群,其浮点算力可匹敌 “地球模拟器”。

地球模拟器(Earth Simulator)是2002年3月15日开始运作的矢量型超级计算机,1998年日本科学技术厅(2001年1月6日与文部省合并为文部科学省)投入1600亿日元经费,日本原子能研究所(2005年10月1日与日本核燃料开发机构合并为日本原子能研究开发机构)、宇宙航空研究开发机构、海洋研究开发机构共同开发,机体设置于海洋研究开发机构横滨研究所(位于日本神奈川县横滨市金泽区)内。


仿真软件, 千万别忘记 COMSOL Multiphysics

*********************************** 您相信这么好的书才 20 多人民币吗 ?


       米国国家超算应用中心建了一个基于PlayStation 2的集群。 Terra Soft Solutions有一个用于PlayStation 3的Yellow Dog Linux版本, 并销售预装了Linux的PS3,有单机和8、32节点的集群。  2007年1月3日,北卡计科副教授弗兰克-穆勒博士将8台PS3集群起来。 穆勒评论说,256MB的系统内存对这种特殊的应用是一种限制,他正在考虑尝试加装更多的内存。 软件包括。Fedora Core 5 Linux ppc64, MPICH2, OpenMP v2.5, GNU Compiler Collection和CellSDK 1.1。  2007年夏天,马萨诸塞大学达特茅斯分校物理系教授Gaurav Khanna使用8台运行Fedora Linux的PS3 独立建立了一个基于消息传递的集群。这个集群是在索尼电脑娱乐公司的支持下建立的, 是第一个产生已发表的科学成果的此类集群。被称为 "PS3重力网格", 这个PS3集群对大型超大质量黑洞捕获较小的紧凑物体进行天体物理学模拟。 Khanna声称,这个集群的性能超过了他模拟的100多个基于英特尔至强内核的传统Linux集群。 PS3重力网格在2007年、2008年、2009年和2010年聚集了大量的媒体关注。 Khanna还创建了一个DIY网站介绍如何建立这种集群,供公众使用。  2010年11月,空*研究实验室创建了一个强大的超级计算机,绰号为 "秃鹰集群", 通过连接1760台索尼PS3,其中包括168个独立的图形处理单元和84个协调服务器的并行阵列, 能够每秒进行500万亿次浮点运算(500 TFLOPS)。      



祖国首台十亿次巨型计算机“银河-Ⅱ” 由国科大计算机系兼研究所研制成功。“银河-Ⅱ”巨型机研制始于1988 年 3 月,1992 年 11 月通过国家鉴定。该机荣获国家科技进步一等奖,被列为 1992 年全国十大科技成果之首。“银河-Ⅱ”的研制可追溯到哈军工。1958 年 9 月,成功研制祖国第一台军用电子管计算机(舰用);1964 年 7 月,研制成功祖国第一台全晶体管化军用通用计算机;1976 年 12 月,研制成功祖国第一台百万次军用大型计算机。在研制巨型( 超级) 计算机方面,该单位成果如下:

“银河-Ⅰ”,1983 年 12 月研制成功,成为中国第一台亿次巨型计算机;“银河-Ⅱ”,1992 年 12 月研制成功,成为中国第一台十亿次巨型计算机;“银河-Ⅲ”,1997 年 6 月研制成功,成为中国第一台超百亿次巨型计算机;

*** 备注: 这些都是新闻中能查到的资料, 没有泄密的嫌疑。

1988年6月6日,审定明确了银河-Ⅱ是面向大型科学、工程计算和大规模数据处理的通用巨型计算机,四处理机( CPU) 系统,64 位浮点运算,速度达到每秒 4 亿个浮点运算结果( 400MFLOPS) ,浮点运算数值范围为 10E-2466 ~ 10E2465,适用于从微观世界到天文数字极为广大的科学计算范围,高精度运算,尾数达十进制 15 位,并提供双精度运算......


......


今天电脑有特价,ASUS ROG Zephyrus G14 14" gaming laptop,

俺刷了一下相关的资料.


CPU Test Suite Average Results for AMD Ryzen 9 5900HS

Integer Math 95,705 MOps/Sec

Floating Point Math 50,389 MOps/Sec


nvidia geforce rtx 3060 specifications

FP16 (half) performance 12.74 TFLOPS (1:1)

FP32 (float) performance 12.74 TFLOPS

FP64 (double) performance 0.199 TFLOPS (1:64)


二十多年前一片小型机的网卡能坑 10 万人民币,

现在一台全面碾压当年的小型机的笔记本电脑才 1万块钱人民币不到。

就更不用说更便宜更超值的 XBOX 和 PS5 了。




#######################################################################

1961年:IBM 发布 IBM 7030 Stretch 超级电脑。它使用64位数据字组,以及32或64位的指令字组。

1974年:Control Data Corporation 推出CDC Star-100向量超级电脑,它使用64位字组架构(先前的CDC系统是以60位架构为基础)。

1976年:Cray Research发表第一台Cray-1超级电脑。它以64位字组架构为基础,它成为后来的Cray向量超级电脑的基础。

1983年:Elxsi推出Elxsi 6400平行微型超级电脑。Elxsi架构具有64位数据寄存器,不过地址空间仍是32位。

1991年:MIPS科技公司生产第一台64位微处理器,作为MIPS RISC架构R4000的第三次修订版本。

1992年:Digital Equipment Corporation(DEC)引入纯64位Alpha架构。

1993年:DEC 发布64位OSF/1 AXP 类Unix操作系统(后来改名为Tru64 UNIX)和OpenVMS操作系统给Alpha系统。

1994年:Intel宣布64位IA-64架构的进度表(与HP共同开发)作为其32位IA-32处理器的继承者。以1998–1999推出时间为目标。SGI发布IRIX 6.0,即支持64位的R8000 CPU。

1995年:Sun推出64位SPARC处理器UltraSPARC。富士通所有的HAL电脑系统推出以64位CPU为基础的工作站,HAL独立设计的第一代SPARC64。IBM发布64位AS/400系统,能够转换操作系统、数据库、应用程序的升级。


user avatar

当然可以了,问题是,实验数据你没有啊……

能不能算后来W88和DF31的非对称椭球初级就不知道了,估计比较费劲了,算完也没法检验对不对。DF31当年也是试爆了四五次才成功的……

user avatar

本文使用 Zhihu On VSCode 创作并发布

随手写一点答案吧。1970年代末期,最经典的超级计算机是CRAY-1,然后有了类似结构的一系列设计,比如国产“银河”超级机。

这个机器的性能,大致可以与乐鑫科技的ESP32系列打个平手。考虑到ESP32的性能也仅仅是够用而已,你可以想见当年的超算的实际水平。

毕竟,在CRAY-1当中为了装置512KB的SRAM,对没错是SRAM做的主存储,用掉了一个单门冰箱的体积。

user avatar

这么说吧,自走吸尘器里的嵌入式,算力都够造小男孩

user avatar

回答得正式一点。

上世纪五六十年代,国内研究两弹一星的科学家前辈们是拥有一些早期电子管计算机(感谢评论区的指正)进行辅助运算的,这些计算机的运算速度大概是每秒几万次运算,且运算位数与今日相距甚远。

今天的i7计算机处理器拥有了半吞吐的AVX512(高位数向量浮点运算,原生位数可以高达512位,十一代Rocket Lake-S支持),单核心主频率高达5.0GHz(每秒运算次数高达数十亿次),在具有良好的软件环境支撑的前提下,可以说,效率在指数级上都能领先一个二位数于那个年代的计算机。

其实现在的i7已经很强大了,你可以在开发好的现成软件平台上,利用现在的i7算链式反应的具体情况,算蛋白质结构模型,算AES的加密解密、HASH的加密,算各种你能想到的、可转化成数学模型进行计算的东西,大多数应用都能在几个小时内运算完成,更有高级的平台(HEDT,服务器级的至强、霄龙等)可以提供带有检错设计的内存。现在的i7 11700K计算这些的速度,理论上可以达到十年前i7 2700K的四倍左右,而i7 2700K,能够碾压上世纪九十年代的超级计算机算力,上世纪九十年代的超算对比古旧的机械计算机又也能获得完全的胜利。

由此你就可以知道,过去的科学家前辈们的数理基础是多么强大了。在那个年代,国内的早期电子管计算机无论是从操作难度还是从运算效率来说,都和今天的人性化人机交互设备没有可比性。前辈们有时候也得靠着压榨自己的脑回路、双手和青春,才能够在那么短的时间内为新生的共和国铸造两弹一星。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有