百科问答小站 logo
百科问答小站 font logo



如何评价 Google 宣称率先实现量子霸权? 第1页

  

user avatar   eric314 网友的相关建议: 
      

之前量子霸权已经炒作好多次了,都不怎么靠谱。这次肯定又是一堆媒体跟风“重磅”,“震惊”,“谷歌牛逼”,然后感叹一下中国落后了,卡脖子警告。

实际上这帮人根本不懂量子计算机能干什么不能干什么,也不能验证谷歌的成果是真突破还是炒作。吹谷歌的重磅文和吹华为的沸腾文本质上没啥区别。

综上,破译一个512位RSA来看看我就信,否则无法证明它不等价于一个超级牛逼的传统计算机,之前已经出过好几次这种事了。。。


user avatar    网友的相关建议: 
      

#9.22更新, 增加Q&A部分在最后, 直接回答大多数人想要知道和了解的问题, 对技术细节没兴趣的可以直接看最后的部分.

说实在的震动还是很大, 在圈内流传的这份NASA Technical Reports基本让大家都很激动不已, 虽然这个文件的正式链接昙花一现, 但是似乎不少圈内人都知道了这个事情. 但是首先这个工作据推测在去年下半年到今年初就比较成熟了, 见Quantum Supremacy Is Both Closer and Farther than It Appears[1]的Intro部分. 而且与IBM Q 最新要上线的53qubit量子计算机一样, google的实验平台也是53qubit的gmon超导量子比特台子. 显然这两个公司达成了某种默契, 在接下面一段时间里我们还会看见类似当年Intel和AMD的竞争状态. John M. Martinis领衔的Google AI Quantum and collaborators和IBM Q会长期放出差不多的东西来维持平衡.

首先强调: 量子霸权是量子系统对其对应的经典系统的霸权, 不是什么国与国, 公司和公司上面的霸权.

就目前来看这个工作有三个耀眼的亮点(来源于泄露的文件[2]):

  • 在保持较高保真度的前提下实现了53个qubit.

基本看来还是说得过去的Fidelity, 唯一遗憾的单比特门在gmon上的表现不佳, 对于两比特门看起来比较正常.

  • 实现了人类目前最大的量子线路. 试验中分别实现了53qubit的pseudo-random quantum circuit generation线路并执行 轮, 最终的Fidelity为 (虽然很差但是在 置信区间内).
  • 展现了所谓Quantum Supremacy, 所谓的量子霸权. 模拟全振幅的43qubit的量子态的演化, 展示了hybrid Schordinger-Feynman algorithm. 同样的程序达到了Julich supercomputer Center的机子( )的极限, 总共花费了 万亿的core hours和1 petawatt时的能量. 在Martinis的这个芯片上用了 跑了 万次. 按照文章的结论, 实现了 层, qubit的量子线路, 在量子计算机和经典计算机上以相同的保真度实现, 经典计算机 (一百万个核心)需要10000年, 而在量子计算机上需要 .

此外也有一个问题暴露出来: 线路最终保真度依然低下, 这么庞大的量子线路导致最终只能以 的保真度实现, 距离实用还要遥远的距离. 此外, 在给出的保真度前提下, 是难以做量子纠错的. 本次撤回的主要原因很有可能是同行评审的需要, 甚至是在等待和IBM Q同期发布.

总而言之, NISQ的时代已经到来了, 量子计算的潜力已经显现, 它已经反击任何幼稚的敌对者的攻击了. 此外, 在量子模拟(也是量子计算的初心)的领域, 似乎可以考虑做一些事情了. Ion trap自从上次IonQ的大新闻过后一直没有动静, 但我相信不久也会有类似的新闻.

实际上值得关注的还有IBM Q最新上线的两台5qubit的量子计算机, 其两比特门的保真度已经相当高了, 而且今天十分火爆, 排队序列一度超过1000个任务.

不要有过高的期望,也不应持毁谤的态度. 从历史的角度上来看, 量子计算的发展和计算机的发展历史是相同的, 你不能指望在Atanasoff–Berry Computer上通用计算, 也不能指望在ENIAC玩魔兽世界. 那时候我们在担心计算机不能纠错, 但是后来的发展让人意识到这些都是不必要的. 所以要发展的看问题.

量子计算的未来似乎不那么遥远了, 我还是挺激动的, 睡了明早继续干活.

最后看见了一些面目可憎的言论。对此我的回应只能是,潘建伟老师在中国量子信息界作出的贡献的不可磨灭的,朱晓波、王浩华、孙麓岩这些人的工作在国际量子信息领域也是很有声誉的。但是,我们毕竟还有很长的路要走. 美国的量子超导芯片起步早,团队多,更是有大公司财力支持,相对于他们我们的科学家还有很多困难. 当然,事事争那么点面子也是无聊且无益的东西,看到了前行者在工艺设计上的问题才有助于我们改进. 科学就是科学,不以个人的好恶感情而转移. 国内的大公司在这些领域布局也很早,据我了解大家在量子平台/软件领域也有深厚的积累,只要不去搞ppt发布我觉得都应该支持.

Q&A

  1. 本次Google验证量子计算的53位量子计算机会不会带来什么军事/国防上的优势?

答: 显然是没有的, 我们现在在的这个量子计算机的时代叫做NISQ(带噪声的中等尺度量子计算机), 这些量子计算机顶多能用来做量子模拟/量子化学的相关问题, 距离实现超越还有很远很远的的道路. 而且很多人本身对量子霸权具有误解, Quantum Supremacy本来就是指在某一实际应用中量子计算机超越了经典计算机, 因此量子模拟/量子化学本身就是实际问题啊, 只是除了少部分科学家大多数人用不到而已. 没有必要一提量子计算机就来句, "给我实现个超越经典的RSA分解", 这是由于你完全不了解这个行业.

2. 我什么时候能玩上量子游戏/使用到量子软件?

答: 我个人比较积极, 基本20-50年以内吧. 一些量子计算机上的早期算法, SVM, 聚类分析都已经有了, 然而量子计算机依然有框架性的问题, 我们不能做量子的拷贝和存储, 对旧有的框架挑战比较大, 很长或许永远都是经典计算为主, 量子计算提供硬件加速.

3. 我国在量子计算领域做的怎么样?

答: 已经很不容易了好吗. 一帮人下面开喷在量子投入世界第一, 我劝你们不要看那些今日头条来的消息了, 就说这次实现Quantum Supremacy的John M. Martinis组, 是Google主要投资, 依托UCSB以前的积累搞出来的. 这里面要烧大量的钱, 为了保持超导状态, 要采用稀释制冷机, 每天开着不能断电还有液氦的损耗, 而国内有完整的稀释制冷机+芯片+芯片设计能力+靠谱的实验人员的组两个指头都能数完, 去查查他们组的固定资产可能还不如Martinis组的零头. 那个时候我国没有那么多投入资金, 所以大规模尝试量子通信, 因为相比起来那个投入是比较低的.

一些稍微有几个赞的外行朋友上来就是对潘老师一顿批评, 但是这显然是错误的. 完全不是什么要自保需要, 潘老师的工作, 墨子号这些, 我是从内心肯定的, 我所看到的毁谤潘老师主要是来自科学网之类的已经沦为民科网站的信息源.

潘老师的贡献是有目共睹的, 潘老师出来自己能力过硬(第一个GHZ), 手底下的团队也不仅能人多, 方向也齐全(这得归功于潘老板的布局). 实际上国内朱晓波, 王浩华, 清华和中科院的团队做的也不错. 不少也已经部署上20+qubit的芯片了, 只是这些测试和改进是旷日持久. 而且有一点很大的不同是, 国内的教授手底下基本要招新学生的, 严格意义上这是需要成长的科研团队, John M. Martinis不招学生, 是完全成熟的科研团队.

几大科技公司也布局了量子计算, BATH, 综合评价是互有优劣, 客观而言没有一家特别强的(只有喜欢把自己宣传成特别强的), 腾讯和华为都在布局量子模拟为核心的平台(强应用), 百度和阿里巴巴更倾向于更基础的研究和人工智能领域(基本就是公司啥做的强我就做啥), 大家都在干活也都有产出. 只是这些产出可以没有自媒体能看得懂啊, 怎么给你宣传, 看见自媒体的宣传我都尴尬. 此外还有一些初创公司, 本源(量子点量子计算), 量旋(NMR量子计算), 国仪(金刚石色芯量子计算). 我们和国外有差距, 但是并不大, 只有加以投入我们或许能找到更好的路线.

4. 本次实验保真度低 是不是意味着没有用?

答: 保真度低确实是个问题, 需要长期改进. 但这不意味着这没有意义, 在计算模型中本来就有不确定性图灵机/概率图灵机之类的, 我们是可以按照一定概率来接受答案的, 因此, 我们确实没有必要每次都 的算对, 只要相对提高它到一个阈值就可以了. 而且, 这样大数目qubit实验的主要问题来源是crosstalk(串扰)和测量, 只要在这个方向上做一定改进就会有巨大的突破.

5. 这只是NASA的阴谋/贸易战到了最关键的时候/你说的就靠谱?

答: 此类回答一般可以称为反智的阴谋论. 一般不予回答. Google和IBM Q的发布都是针对全世界的, 不是针对某个国家的. IBM Q的小比特数量子计算机(5qubits,16qubits)全世界的团队/个人都可以使用. 本身这些技术的进步都是人类技术进步的一部分, 明明可以考虑如何更好的在化学合成, 制药等领域应用, 某些人眼里就只剩下我们不是第一个, 这玩意就是用来打仗的. 我觉得这种看法对于有专业精神的科学家是挺无语的. 不要拿狭隘的民族主义情绪去评价这件人类意义上重要的事情. 计算机还是外国人发明的, 也没见几个人来大张旗鼓的抵制.

有人质疑怎么还没有正式发布你们就知, 少司命和我算同行. 他做quantum devices, 我算是做超导操控的, 要是我们这些人都不能第一时间得知别的团队的最新进展, 那才是可怕的. 我确实想念以前的知乎, 大家讨论都很专业, 有理有据, 现在真的是一言难尽.

很多人在怀疑说这个文件发布又撤回的操作, 这个原因我直言是因为同行评审的需要, 也可能是要和IBM Q做背对背实验, 而且最近补充材料我也已经看到了, 没有任何可能, 因为这就一个科学家团体的信誉问题, 像John Martinis这些人, 完全不可能因为某种商业需要为一件造假的事情去背书, 因此实际上这是一场泄漏事故而非什么操作.

参考

  1. ^Quantum Supremacy Is Both Closer and Farther than It Appears https://arxiv.org/pdf/1807.10749.pdf
  2. ^ Quantum Supremacy Using a Programmable Superconducting, Nasa

user avatar   li-chang-hao-2 网友的相关建议: 
      

毫无疑问的是,这会是量子计算领域一个里程碑一样的大新闻.

9月20号刚刚看到这个消息,据说是NASA发布到官网上而后又迅速删掉,但是内容已经在网上大规模流传开了。文章[1]写的非常简单易懂,我尽量用简单的语言陈述一下这个新闻的主要内容吧(蹭热度),如果没有任何背景可以只看加粗字体部分。如果哪里不准确欢迎指正补充。

首先一个概念,所谓的quantum supremacy,有人翻译为量子优势也有人翻译为量子霸权,一般指的是量子计算在某一个问题上,可以解决经典计算机不能解决的问题或者是比经典计算机有显著的加速(一般是指数加速)。

回到文章,在硬件方面,谷歌家一直用的是超导电路系统,这里是54个物理比特(transmon)排成阵列,每个比特可以与临近的四个比特耦合在一起,耦合强度可调(从0到大概40MHz),实物图和示意图分别如下。


有了硬件就要衡量其性能的好坏,所以首先要知道对这些量子比特进行操作时发生错误的概率(error rates)。这里他们用cross-entropy benchmarking (XEB)的方法测量这些error。XEB早就有了我记得google在今年3月会议时候就讲过,跟randomized bechmarking很像都是加一系列随机的门操作,然后从保真度衰减信号中提取出error rates. 下图是他们最终得到的结果,在没有并行时候单比特0.15%的错误率其实不算高,而双比特0.36%的错误率e2有0.36%则还不错,像google另一个18比特的Gmon18我记得两比特的有0.8%.

下面是文章最重要的部分,google在多项式时间内实现了对一个随机量子电路的采样,而在已知的经典计算机上需要的时间则非常非常之久,像文中实现的最极端的例子是,对一个53比特20个cycle的电路采样一百万次,在量子计算机上需要200秒,而用目前人类最强的经典的超级计算机同样情况下则需要一万年。亦即在这个问题上,量子实现了对经典的超越。这里的cycle指的是对这些比特做操作的数目,一个cycle包含一系列单比特操作和双比特操作,可以近似理解为电路的深度(circuit depth)。 对于最大的电路,即53个比特20个cycle的情况,在量子处理器上做一百万次采样后得到XEB保真度大于0.1% (5倍置信度),用时大概200秒. 而要在经典计算机上模拟的话,因为比特数目很多整个的希尔伯特空间有 而且还有那么多电路操作,这已经超出了我们现在超级计算机的能力(within considerable time),就像文中举的另一个例子,用SFA算法大概需要50万亿core-hour(大概是一个16核处理器运行几亿年吧), 加 kWh的能量(也就是一万亿度电...),可以想见是多么难的事情了。而量子这个问题上为啥会比经典好也非常容易理解,用到的就是量子运算的并行性,即量子态可以是叠加态可以在多项式时间内遍历整个希尔伯特空间,而经典计算机模拟的话需要的资源则是随着比特数目指数增加的。

当然有没有可能是有些更好的经典采样算法和量子的差不多,只是我们没有找到呢?文中没有给出很直接的回答,他们认为从复杂度分析来讲经典算法总是会随着比特数和cycle指数增加的,而且即使未来有一些更好的经典算法,到时候量子的处理器也发展了所以还是会比经典的好。



最后个人的一点comment, 振奋的同时也要保持清醒,我们离着实现量子计算的完全功力还有很远的距离。硬件上有集成化的问题,比如这里的超导比特系统要加微波control要谐振腔readout,比特数目增加后有空间不足和cross-talk等各种问题,远远不止我们图中看到的一个小芯片那么简单; 再一个比特数多了电路深度大了怎么继续提高保真度也是很大问题,像这篇文章里53个比特到第十几个circuit cycle时候保真度只有10的负二次方量级了,怎么decorrelate error实现量子纠错,最终实现容错量子计算等等,这些都是硬件上的挑战;

算法上,除了这里的采样问题(由此延伸的可以解决的问题其实是非常有限的),又有哪些问题是可以证明量子比经典有显著优势的,可不可以设计一些算法使得量子计算机能解决经典不能解决的问题,或者量子比经典有显著的加速,就像文章最后所说的:

...As a result of these developments, quantum computing is transitioning from a research topic to a technology that unlocks new computational capabilities. We are only one creative algorithm away from valuable near-term applications.

在NISQ(noisy-intermediate scale quantum computer)的时代(如下图),虽然我们离绿色真正的容错通用量子计算机还很远,但是现在已经开始进入到蓝色区域相信在未来几年会有一些有趣的near-term的应用出现。


回答一下大家关心的问题吧,以下是个人观点

一个是中国在这方面有什么进展,我们国家在近些年在量子方面投入很大,很多组也做出了许许多多非常突出的贡献,但必须承认的是,至少在我们在文中提到的用超导比特去做通用量子计算机这方面确实还有着比较明显的差距,但是道路是曲折的前途是光明的,我相信国内一定会迎头赶上并在很多领域做出超越的。现在无论学校科研院所还是大企业都有投入和发力,只不过具体方向会不一样很多优秀的成果也没有得到媒体的关注。

再一个问题就是很多同学表示还是看不太懂,确实没有相关背景了解起来会比较吃力,既准确又通俗的科普是件很难的事...anyway, 还是我在文中强调的,文章的内容是量子计算重要的一步但是其应用是非常非常有限的,以后的路仍道阻且长,我们离着可以破解RSA密码离着量子计算机的大规模普及还很远,而且量子计算机也是不可能取代现在用的经典计算机的,这些应该是现在的业内共识。

参考

  1. ^ Quantum supremacy using a programmable superconducting processor



  

相关话题

  如何评价中国首个量子计算机操作系统「本源司南」,具有怎样的意义?对哪些领域有利好? 
  为什么每次中美有摩擦,苹果总会被网友拿出来抵制,而微软,谷歌,英特尔,高通,英伟达等公司却没事? 
  谷歌的 Hugo Barra 离职加入小米是什么情况? 
  怎么看google准备用AAB格式替换APK? 
  如何看待必应中国 cn.bing 暂时无法访问? 
  光子怎么产生的? 
  Google 的晋升体系是怎样的? 
  为什么美国如此反对中国留学生学习人工智能和量子技术?国内外这两种技术的发展现状如何? 
  谷歌当年为什么退出中国大陆?之后为什么不重返大陆? 
  请教一下,在绝对零度下,量子的测不准原理还正确吗。? 

前一个讨论
欧美人的平均颜值是否高于亚洲人?
下一个讨论
如何看待美国通用汽车工人从 16 日开始罢工?





© 2024-09-28 - tinynew.org. All Rights Reserved.
© 2024-09-28 - tinynew.org. 保留所有权利