问题

日立的「CMOS 退火」技术是怎样的一种技术?利用该技术的半导体计算机是否能够替代量子计算机?

回答
日立的「CMOS 退火」技术:一种模拟退火的创新实现方式

日立公司提出的「CMOS 退火」(CMOS Annealing)技术,是一种利用现有CMOS(互补金属氧化物半导体)技术构建的模拟退火(Simulated Annealing)计算硬件。其核心思想是将解决复杂组合优化问题所需的“退火过程”物理化,并通过CMOS电路来实现。

为了更详细地理解这项技术,我们需要从几个方面进行深入剖析:

1. 模拟退火(Simulated Annealing)的原理回顾

首先,理解CMOS退火的基础是理解模拟退火算法本身。模拟退火是一种受到金属退火过程启发的启发式优化算法,用于寻找复杂函数(通常是目标函数)的全局最小值或最大值。其核心思想是:

类比物理退火: 将待解决的优化问题看作一个能量景观,其中每个解都对应着一个能量值。找到最优解就相当于找到能量景观的最低点。物理退火过程是通过加热金属使其原子获得能量,然后缓慢冷却,让原子重新排列成能量较低的稳定结构。
随机性与概率: 模拟退火算法引入了“温度”参数。在较高的温度下,算法以较高的概率接受比当前解更差的解(即能量更高的解),这有助于算法跳出局部最优解,探索更广阔的解空间。随着温度的降低,接受更差解的概率逐渐减小,算法最终会收敛到全局最优解(或近似最优解)。
马尔可夫链蒙特卡洛(MCMC)方法: 模拟退火是MCMC方法的一种应用。它通过一系列随机的“移动”来探索状态空间,并根据一个接受准则(通常是Metropolis准则)来决定是否接受新的状态。

2. CMOS 退火技术的核心创新:将模拟退火物理化

传统的模拟退火算法是软件实现的,这意味着它运行在通用CPU或GPU上,其计算能力受到现有计算架构的限制。而日立的CMOS退火技术则试图直接将模拟退火的计算过程“硬化”到CMOS电路中。

具体来说,CMOS退火技术通常会构建一个物理退火器(Physical Annealer),这个退火器是一个专门设计的集成电路(ASIC),其结构和工作原理模仿了模拟退火算法的核心操作。其关键要素包括:

模拟物理系统: 并非直接在数字逻辑门上模拟模拟退火的数学运算,而是构建一个能够体现模拟退火物理过程的模拟电路。这通常涉及到利用电路的物理特性来代表问题中的变量和它们之间的相互作用。
可编程的相互作用: CMOS退火器需要能够表示和修改问题中的“相互作用”或“连接性”。例如,对于一个图论中的优化问题,每个节点可以表示为电路中的一个单元,它们之间的连接强度可以由CMOS电路的参数(如电阻、电容或偏置电压)来模拟和调整。
能量函数映射: 将组合优化问题中的目标函数映射到CMOS电路的某种物理量(例如,电路的总功耗、电流分布或电压状态)上。目标是让电路的最低能量状态对应于优化问题的最优解。
“冷却”过程的实现: 通过控制电路的参数(如工作电压、电流或时钟频率)来模拟温度的降低。这可以是一个渐进的过程,逐渐引导电路从一个高“能量”状态稳定到一个低“能量”状态。
并行处理能力: CMOS技术本身就支持大规模并行处理。CMOS退火器可以设计成包含大量的可相互作用的单元,从而实现高度并行的优化计算。

举例说明(以一个简化的 Ising 模型为例):

Ising 模型常用于表示自旋系统,也可以用来建模很多组合优化问题。在CMOS退火中,可以为每个自旋(变量,通常是+1或1)设计一个模拟单元。这些单元之间通过模拟的“耦合强度”(J值)相互连接。

单元设计: 每个单元可能包含晶体管,其状态(如输出电压的高低)可以表示自旋的状态。
耦合实现: 单元之间的耦合可以通过模拟的电阻网络或电流源来实现,其阻值或电流大小可以由外部电压或电流来控制,从而模拟Ising模型中的耦合强度。
温度模拟: “温度”参数可以映射到控制单元行为的某个参数上,例如施加在单元上的随机噪声的大小或工作电压。随着“温度”降低,噪声减小或电压稳定,使得单元状态趋于低能量配置。
读取结果: 当电路稳定下来时,读取每个单元的状态,就可以得到优化问题的解。

3. CMOS 退火技术的优势与特点

速度优势: 相比于纯软件模拟退火,硬件实现的CMOS退火器可以更快地执行模拟退火过程,因为它将计算直接映射到物理过程。
能效提升: 专门设计的ASIC通常比通用CPU/GPU在执行特定任务时更具能效优势。
并行性: CMOS技术天然支持大规模并行,可以构建拥有海量可相互作用单元的退火器,适合解决大规模组合优化问题。
可编程性: 通过调整CMOS电路的参数,可以使其适应不同类型的组合优化问题,提供一定的灵活性。
利用现有技术: 使用成熟的CMOS制造工艺,降低了生产成本和技术风险,更容易实现商业化。

4. CMOS 退火技术能否替代量子计算机?

这是一个非常重要的问题,答案是:在解决某些特定类型的组合优化问题上,CMOS退火技术可以提供一种强大的加速计算能力,但它并不能完全替代量子计算机。两者是不同范式的计算,各有其优势和局限性。

CMOS 退火的局限性(与量子计算机的对比):

模拟而非量子: CMOS退火器是模拟计算机,它通过物理过程来模拟退火算法。而量子计算机是量子计算机,它利用量子力学的叠加态、纠缠态等特性进行计算。模拟过程虽然可以加速特定算法,但其计算能力本质上仍然是经典计算机的范畴。
问题类型限制: CMOS退火器在解决某些特定形式的组合优化问题(如Ising模型、QUBO问题)上表现出色。而量子计算机(特别是量子退火器)虽然也能解决这类问题,但其潜力在于可以解决更广泛的、目前经典计算机难以处理的问题,例如素数分解(Shor算法)、数据库搜索(Grover算法)等。
“退火”的本质: CMOS退火器本质上是加速“模拟退火”算法的硬件。虽然模拟退火是一种强大的优化算法,但它仍然是一种启发式算法,不保证找到全局最优解,且在某些复杂问题上可能仍然需要很长时间。而某些量子算法(如Shor算法)提供了指数级的加速,并且理论上可以保证找到最优解。
量子纠缠和叠加态: 量子计算机能够利用量子叠加态同时探索多个计算路径,以及量子纠缠来实现信息之间的非经典关联。这是CMOS退火器无法实现的。这种能力使得量子计算机在解决某些非组合优化问题时拥有根本性的优势。
通用性: 量子计算机被设想为一种通用计算设备,未来可能可以运行多种量子算法。而CMOS退火器是专门为模拟退火设计的专用硬件,其通用性相对有限。

CMOS 退火的优势(与量子计算机的对比):

成熟度与可及性: CMOS技术是目前最成熟的半导体技术,其制造和部署相对容易,成本也更低。这使得CMOS退火器比早期量子计算机更容易获得和实际应用。
噪声鲁棒性: 模拟电路对噪声有一定的容忍度,在某些方面可能比对环境噪声非常敏感的量子计算机更为鲁棒。当然,这取决于具体的硬件设计。
特定问题加速: 对于特定形式的组合优化问题,CMOS退火器能够提供比现有经典计算机(包括通用CPU/GPU上的软件模拟退火)显著的速度提升。

结论:

CMOS退火技术是日立在加速组合优化计算方面的一项有前景的创新,它利用CMOS技术实现了高性能的模拟退火硬件。在解决特定类型的组合优化问题上,它能够提供显著的性能优势,并且比当前早期的量子计算机更容易实现和应用。

但是,它并不能替代量子计算机。 量子计算机拥有基于量子力学原理的独特计算能力,能够处理CMOS退火器无法解决的问题,并且在某些问题上提供根本性的加速。

更准确地说,CMOS退火可以被看作是一种“经典加速器”,专门针对模拟退火算法进行优化,而量子计算机则是一种全新的计算范式,有望解决目前经典计算机无法触及的计算难题。 在未来,这两种技术可能并行发展,各自发挥其优势,或者在某些应用场景下可以互补使用。

日立的CMOS退火技术,以其“将模拟退火过程硬件化”的理念,为解决复杂的组合优化问题提供了一种新的、高效的途径,尤其是在商业和社会应用层面,其成熟度和可及性使其成为一个值得关注的解决方案。但要实现对量子计算的“替代”,则需要更根本性的计算能力飞跃,这正是量子计算所追求的目标。

网友意见

user avatar

谢邀。

终于有时间写这个答案了。和我导师合作的京都大学科学家出席了这个会议,所以我联系他专门讨论了一下CMOS退火。

先给结论,CMOS退火是一项非常了不起的研究。但CMOS退火不是量子过程,也不能替代量子计算机(没有量子过程就不可能有量子计算功能)。但CMOS退火对解决部分组合优化问题很管用,这原本是Dwave擅长的领域。

最初看到这个新闻还是在知乎上被邀请。知乎用户群对这些技术进步反应的确相当快。

我初读新闻的时候也吓了一大跳,还以为一夜之间就量子计算革命就到来了。我以为我马上就能投入业界成为第一代量子算法兼机器学习工程师了。后来发现我还是想多了。。

简单对比一下CMOS退火和Dwave计算机的优劣。

CMOS退火有2万个比特;最新的Dwave只有1024个比特。

CMOS退火室温都能运行,稳定性极好;Dwave要屏蔽外界电磁场干扰,在20mK(零下273.13摄氏度)温度下才能工作。

CMOS退火用成熟稳定的半导体技术,第一代就做到60nm工业级水平;Dwave还是只能用昂贵的超导环,需要冷却到20mk才能正常工作,整个系统一千万美金1台,还老出毛病。

CMOS退火随机性来自SRAM和芯片外部环境;Dwave随机性来自quantum fluctuation。

CMOS退火这种非冯·诺依曼型计算机用处理器在解决组合优化问题时,能耗比经典计算机低很多,但计算时间和经典计算机是一个量级的。Dwave在时间和能耗上表现都好很多。


伊辛模型的哈密顿量长这样。

这是Dwave128比特芯片的示意图。每一个黑点就是一个超导环,电流流向决定自旋取值+1/-1,连接i比特和j比特的黑线表示一个Jij。

CMOS退火的芯片和Dwave一样都用了伊辛模型(Ising Model),但是CMOS退火里比特间的耦合作用J只能取值+1/0/-1三个值,而且非常稀疏,几乎是只有相邻比特有稳定的耦合作用。所以,CMOS退火只能解决部分简单的组合优化问题,对于机器学习和人工智能而言,CMOS退火计算没有太多实用价值的。

Dwave芯片的耦合要好的多,而且每一代性能都在提升,能应用的机器学习场景也越来越多。日本已经决定在东京建造世界上最强大的Dwave系统量子计算机。靠比Dwave公司更强大的人力财力和精密加工能力建造三维构造的Dwave芯片,比特耦合能力和量子比特数都会远超Dwave公司的产品。

现在的量子算法研究情况有点像很多年以前,写好了程序要到去机房预约计算机才能运行。以后的环境应该会越来越好了,越来越多的科研人员有机会亲自使用量子计算机。

前面解释了CMOS退火的优劣,以及为什么不能替代量子计算。

日立的“CMOS退火”技术是怎样的一种技术?

这个问题上面的答案解释的很详细了。我在下文只做一下简单的补充。

1)

量子退火(QA,Quantum Annealing):不同于经典模拟退火算法利用热波动来搜寻问题的最优解,量子退火算法利用量子波动产生的量子隧穿效应来使算法摆脱局部最优,而实现全局优化。量子退火就逆天了,清醒的销售员在C城市时学会了量子隧穿,瞬移到了B城市去看看那边可不可能是最优解,是的话就回去走B路线,不是的话继续从C出发。
@薛矽

这个比喻有两个问题,有点太勉强了。

i)我们搜索的是路径,不是城市。

ii)量子退火是:一开始我们的销售员处于n(~2^N)个态的叠加,是同时选择了所有路径叠加态。你可以设想这个销售员有2^N个分身。每一个分身都处在一个路径上,对应一个量子态。然后,系统开始幸运,高能量的分身一点点转移到低能量态(每个分身的权重系数的演化是连续的)。到最后,所有的分身都汇聚到基态上,找到了最优化的解。

我们只有波函数,没有具体的点,所以不是一个销售员在一个路上。是无数个销售员分布在每一条路上。

所谓的量子隧穿效应实际上说的是,销售员的某个态可以跃过相邻的高能量态到基态。

计算时间是:t~h/ΔE,h是普朗克常数。


2)为什么量子计算和机器学习关联紧密?

量子理论(Quantum Theory)是概率理论。是一中与自然界量子现象契合的概率模型。

这个概率模型和统计学习理论也是契合的。

量子理论这个重要的物理学理论为统计学习理论和自然界的量子物理现象打起了桥梁。

在这个框架下,两个看起来毫不相干的领域有着深刻的联系,可以被统一描述。

现在我们能制造一台名叫Dwave的量子系统,这就完成了机器学习理论到物理世界的映射。

这是没有量子过程的CMOS退火不可能办到的。

基于量子逻辑门的量子计算机与大家熟知的计算机更为接近。

无非是经典计算机有与非门这种不可逆的逻辑门,而量子逻辑门全部都是可逆的(所以不能完成与非操作)。可逆计算带来的一大优势是接近0的能耗。量子计算机可以轻松突破散热和能耗给经典计算机带来的限制。

常见的量子逻辑门有:Toffoli Gate/Fredkin Gate/CNOT/...

由于量子态都是叠加态(逻辑0和逻辑1的任意叠加)。当我们有N个量子比特时,就能以经典计算机2^N倍的速度作逻辑门运算。Quantum Parallelism就是量子计算强大能力的主要来源。

这更是CMOS退火办不到的。

最后,Dwave绝热量子计算和量子逻辑门的标准量子计算是等价的。这个结论是我们最近几年才知道的。

【Aharonov D, Van Dam W, Kempe J, et al. Adiabatic quantum computation is equivalent to standard quantum computation[J]. SIAM review, 2008, 50(4): 755-787.】

附送一个量子退火理论的讲座:

youtube.com/watch?

演讲者是西森教授,量子退火算法的提出者。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有