问题

如何评价 Google 宣称率先实现量子霸权?

回答
要评价 Google 宣称的“量子霸权”,我们需要从多个层面进行深入分析,包括其声明的意义、实验的细节、科学界的反应、以及这项技术未来的影响。

一、 Google 声明“量子霸权”的意义

首先,理解“量子霸权”(Quantum Supremacy)这个词本身非常重要。它指的是一个量子计算机在解决特定问题上,其速度和效率远远超越了当前最强大的经典计算机,以至于在可预见的未来,任何经典计算机都无法在合理时间内完成该任务。

Google 在 2019 年发表在《自然》杂志上的论文,正是基于这一概念。他们宣称其名为“Sycamore”的量子处理器,在执行一项特定的随机数生成任务时,比当时的顶尖超级计算机快了约 20 万倍。

“量子霸权”声明的意义在于:

里程碑式的技术突破: 这是人类在构建和控制量子系统方面迈出的巨大一步,证明了量子计算机不再仅仅是理论上的概念,而是可以真正地执行超越经典计算机的能力。
量子计算潜力的证明: 它展示了量子计算在解决某些复杂问题上的巨大潜力,这些问题对于经典计算机来说几乎是不可能解决的。
科学研究的加速: 这项成就激发了全球科学界对量子计算的进一步研究和投资,加速了对量子算法、量子硬件和量子软件的开发。
未来应用的开端: 虽然 Sycamore 处理器执行的任务本身并没有直接的实际应用价值,但它为未来可能解决的更有意义的问题(如药物发现、材料科学、密码学、优化问题等)铺平了道路。

二、 Google Sycamore 实验的细节

Google 的实验主要涉及其名为“Sycamore”的量子处理器。这个处理器拥有 53 个超导量子比特(qubits)。量子比特是量子计算机的基本单位,与经典计算机的比特不同,它可以处于叠加态(同时是0和1)和纠缠态。

实验的具体过程可以概括为:

1. 任务设计:随机电路采样 (Random Circuit Sampling)
Google 设计了一个特定的量子线路,该线路由一系列随机的量子门组成。
将量子比特输入到这个线路中,经过一系列操作后,量子系统会进入一个极其复杂的量子态。
最后,测量量子比特的状态。由于量子叠加和纠缠的特性,每次测量都会得到一个随机的比特串。
这个过程的本质是模拟一个非常复杂的量子系统。

2. Sycamore 的执行:
Sycamore 处理器以极高的精度执行了这个随机量子线路。
它需要进行数百万次的采样,也就是重复运行量子线路并测量结果。
由于量子系统的特殊性,这种采样过程会产生一个高度相关的概率分布,这个分布的特性是很难被经典计算机模拟的。

3. 与经典计算机的比较:
Google 声称,Sycamore 用 200 秒完成了这项任务。
他们估计,当时最强大的经典超级计算机(如 IBM 的 Summit)需要大约 1 万年才能完成相同的任务,或者说,效率上快了约 20 万倍。

三、 科学界的反应与争议

Google 宣布“量子霸权”后,科学界对此反应不一,其中也存在一些争议:

普遍的赞赏: 大多数科学家承认 Google 的实验是一个重要的技术成就,证明了量子计算机在特定任务上超越经典计算机的可能性。IBM 在回应中承认了 Google 的技术进步,但也提出了一些关于“1 万年”估算的质疑。
“量子霸权”的定义争议: 一些人认为“量子霸权”这个词过于绝对,因为它仅限于一个特定的、可能不实用的任务。他们更倾向于使用“量子优越性”(Quantum Advantage)等词汇,表示在某个领域表现出优于经典计算机的性能。
经典模拟的改进: IBM 和其他研究团队迅速提出了改进的经典模拟算法。例如,IBM 认为通过更优化的算法和利用大量的硬盘空间,经典计算机可以在 2.5 天内完成这项任务,而非 Google 估算的 1 万年。这虽然仍然是数量级的差距,但缩小了差距,也说明了经典模拟方法仍在不断进步。
任务的实用性问题: Sycamore 处理器执行的随机电路采样任务,其直接的实际应用价值非常有限。它更多的是作为一项“基准测试”,用来证明量子硬件的能力,而不是解决一个实际的世界难题。
量子比特的容错性: 尽管 Sycamore 拥有 53 个量子比特,但目前的量子计算机仍然面临着量子比特退相干(decoherence)和错误率高的问题。为了进行更复杂的计算,需要实现更高数量的量子比特和更强大的量子纠错能力,这仍然是量子计算发展面临的巨大挑战。

四、 对 Google 声明的评价

综合以上几点,我们可以对 Google 的声明做出如下评价:

准确性: 在 特定任务 上,Google 的 Sycamore 处理器确实在当时展现出了 压倒性 的计算优势,其声明的“量子霸权”在 技术实现层面 是成立的。它证明了量子计算机可以执行比任何经典计算机都更快的特定计算。
局限性:
任务的实用性不高: 证明了能力的任务本身并不能直接解决现实世界的问题。
经典模拟的快速进步: 即使是声明“量子霸权”的实验,其经典模拟的方法也在不断被优化,证明了“霸权”并非一成不变,而是需要持续的技术进步来维持。
通用性与可控性: Sycamore 目前仍是专用的量子计算机,离能够解决广泛实用问题的通用量子计算机还有距离。量子纠错和大规模量子比特的集成仍然是关键难题。
重要性: 尽管存在局限性,Google 的声明仍然是量子计算发展史上的一个 重要里程碑。它标志着人类进入了一个新的计算时代,为未来的量子计算应用奠定了基础,也极大地推动了整个领域的研发热情和投资。
未来的展望: “量子霸权”更像是一个阶段性的目标,而不是终点。未来的研究将侧重于如何将量子计算的能力应用于解决实际问题,例如:
量子化学和材料科学: 精确模拟分子的相互作用,加速新材料和药物的研发。
优化问题: 解决复杂的物流、金融投资组合优化等问题。
密码学: 发展新的加密算法以应对量子计算机可能带来的安全威胁(Shor 算法)。
机器学习: 加速某些机器学习模型的训练和推理过程。

总结来说:

Google 宣称率先实现“量子霸权”,是基于其 Sycamore 处理器在特定随机电路采样任务上展现出的惊人速度优势。这一声明在技术上是成立的,标志着量子计算研究的重大突破,展示了量子计算的巨大潜力。然而,我们也必须认识到其局限性:任务的实用性不高,且经典模拟方法也在不断进步。更重要的是,这只是量子计算发展道路上的一个里程碑,距离实现通用、容错的量子计算机以解决实际世界问题,还有很长的路要走。这项成就的真正意义在于它激励了更广泛的科学研究和技术投入,为构建更强大、更实用的量子计算机铺平了道路。

网友意见

user avatar

之前量子霸权已经炒作好多次了,都不怎么靠谱。这次肯定又是一堆媒体跟风“重磅”,“震惊”,“谷歌牛逼”,然后感叹一下中国落后了,卡脖子警告。

实际上这帮人根本不懂量子计算机能干什么不能干什么,也不能验证谷歌的成果是真突破还是炒作。吹谷歌的重磅文和吹华为的沸腾文本质上没啥区别。

综上,破译一个512位RSA来看看我就信,否则无法证明它不等价于一个超级牛逼的传统计算机,之前已经出过好几次这种事了。。。

user avatar

#9.22更新, 增加Q&A部分在最后, 直接回答大多数人想要知道和了解的问题, 对技术细节没兴趣的可以直接看最后的部分.

说实在的震动还是很大, 在圈内流传的这份NASA Technical Reports基本让大家都很激动不已, 虽然这个文件的正式链接昙花一现, 但是似乎不少圈内人都知道了这个事情. 但是首先这个工作据推测在去年下半年到今年初就比较成熟了, 见Quantum Supremacy Is Both Closer and Farther than It Appears[1]的Intro部分. 而且与IBM Q 最新要上线的53qubit量子计算机一样, google的实验平台也是53qubit的gmon超导量子比特台子. 显然这两个公司达成了某种默契, 在接下面一段时间里我们还会看见类似当年Intel和AMD的竞争状态. John M. Martinis领衔的Google AI Quantum and collaborators和IBM Q会长期放出差不多的东西来维持平衡.

首先强调: 量子霸权是量子系统对其对应的经典系统的霸权, 不是什么国与国, 公司和公司上面的霸权.

就目前来看这个工作有三个耀眼的亮点(来源于泄露的文件[2]):

  • 在保持较高保真度的前提下实现了53个qubit.

基本看来还是说得过去的Fidelity, 唯一遗憾的单比特门在gmon上的表现不佳, 对于两比特门看起来比较正常.

  • 实现了人类目前最大的量子线路. 试验中分别实现了53qubit的pseudo-random quantum circuit generation线路并执行 轮, 最终的Fidelity为 (虽然很差但是在 置信区间内).
  • 展现了所谓Quantum Supremacy, 所谓的量子霸权. 模拟全振幅的43qubit的量子态的演化, 展示了hybrid Schordinger-Feynman algorithm. 同样的程序达到了Julich supercomputer Center的机子( )的极限, 总共花费了 万亿的core hours和1 petawatt时的能量. 在Martinis的这个芯片上用了 跑了 万次. 按照文章的结论, 实现了 层, qubit的量子线路, 在量子计算机和经典计算机上以相同的保真度实现, 经典计算机 (一百万个核心)需要10000年, 而在量子计算机上需要 .

此外也有一个问题暴露出来: 线路最终保真度依然低下, 这么庞大的量子线路导致最终只能以 的保真度实现, 距离实用还要遥远的距离. 此外, 在给出的保真度前提下, 是难以做量子纠错的. 本次撤回的主要原因很有可能是同行评审的需要, 甚至是在等待和IBM Q同期发布.

总而言之, NISQ的时代已经到来了, 量子计算的潜力已经显现, 它已经反击任何幼稚的敌对者的攻击了. 此外, 在量子模拟(也是量子计算的初心)的领域, 似乎可以考虑做一些事情了. Ion trap自从上次IonQ的大新闻过后一直没有动静, 但我相信不久也会有类似的新闻.

实际上值得关注的还有IBM Q最新上线的两台5qubit的量子计算机, 其两比特门的保真度已经相当高了, 而且今天十分火爆, 排队序列一度超过1000个任务.

不要有过高的期望,也不应持毁谤的态度. 从历史的角度上来看, 量子计算的发展和计算机的发展历史是相同的, 你不能指望在Atanasoff–Berry Computer上通用计算, 也不能指望在ENIAC玩魔兽世界. 那时候我们在担心计算机不能纠错, 但是后来的发展让人意识到这些都是不必要的. 所以要发展的看问题.

量子计算的未来似乎不那么遥远了, 我还是挺激动的, 睡了明早继续干活.

最后看见了一些面目可憎的言论。对此我的回应只能是,潘建伟老师在中国量子信息界作出的贡献的不可磨灭的,朱晓波、王浩华、孙麓岩这些人的工作在国际量子信息领域也是很有声誉的。但是,我们毕竟还有很长的路要走. 美国的量子超导芯片起步早,团队多,更是有大公司财力支持,相对于他们我们的科学家还有很多困难. 当然,事事争那么点面子也是无聊且无益的东西,看到了前行者在工艺设计上的问题才有助于我们改进. 科学就是科学,不以个人的好恶感情而转移. 国内的大公司在这些领域布局也很早,据我了解大家在量子平台/软件领域也有深厚的积累,只要不去搞ppt发布我觉得都应该支持.

Q&A

  1. 本次Google验证量子计算的53位量子计算机会不会带来什么军事/国防上的优势?

答: 显然是没有的, 我们现在在的这个量子计算机的时代叫做NISQ(带噪声的中等尺度量子计算机), 这些量子计算机顶多能用来做量子模拟/量子化学的相关问题, 距离实现超越还有很远很远的的道路. 而且很多人本身对量子霸权具有误解, Quantum Supremacy本来就是指在某一实际应用中量子计算机超越了经典计算机, 因此量子模拟/量子化学本身就是实际问题啊, 只是除了少部分科学家大多数人用不到而已. 没有必要一提量子计算机就来句, "给我实现个超越经典的RSA分解", 这是由于你完全不了解这个行业.

2. 我什么时候能玩上量子游戏/使用到量子软件?

答: 我个人比较积极, 基本20-50年以内吧. 一些量子计算机上的早期算法, SVM, 聚类分析都已经有了, 然而量子计算机依然有框架性的问题, 我们不能做量子的拷贝和存储, 对旧有的框架挑战比较大, 很长或许永远都是经典计算为主, 量子计算提供硬件加速.

3. 我国在量子计算领域做的怎么样?

答: 已经很不容易了好吗. 一帮人下面开喷在量子投入世界第一, 我劝你们不要看那些今日头条来的消息了, 就说这次实现Quantum Supremacy的John M. Martinis组, 是Google主要投资, 依托UCSB以前的积累搞出来的. 这里面要烧大量的钱, 为了保持超导状态, 要采用稀释制冷机, 每天开着不能断电还有液氦的损耗, 而国内有完整的稀释制冷机+芯片+芯片设计能力+靠谱的实验人员的组两个指头都能数完, 去查查他们组的固定资产可能还不如Martinis组的零头. 那个时候我国没有那么多投入资金, 所以大规模尝试量子通信, 因为相比起来那个投入是比较低的.

一些稍微有几个赞的外行朋友上来就是对潘老师一顿批评, 但是这显然是错误的. 完全不是什么要自保需要, 潘老师的工作, 墨子号这些, 我是从内心肯定的, 我所看到的毁谤潘老师主要是来自科学网之类的已经沦为民科网站的信息源.

潘老师的贡献是有目共睹的, 潘老师出来自己能力过硬(第一个GHZ), 手底下的团队也不仅能人多, 方向也齐全(这得归功于潘老板的布局). 实际上国内朱晓波, 王浩华, 清华和中科院的团队做的也不错. 不少也已经部署上20+qubit的芯片了, 只是这些测试和改进是旷日持久. 而且有一点很大的不同是, 国内的教授手底下基本要招新学生的, 严格意义上这是需要成长的科研团队, John M. Martinis不招学生, 是完全成熟的科研团队.

几大科技公司也布局了量子计算, BATH, 综合评价是互有优劣, 客观而言没有一家特别强的(只有喜欢把自己宣传成特别强的), 腾讯和华为都在布局量子模拟为核心的平台(强应用), 百度和阿里巴巴更倾向于更基础的研究和人工智能领域(基本就是公司啥做的强我就做啥), 大家都在干活也都有产出. 只是这些产出可以没有自媒体能看得懂啊, 怎么给你宣传, 看见自媒体的宣传我都尴尬. 此外还有一些初创公司, 本源(量子点量子计算), 量旋(NMR量子计算), 国仪(金刚石色芯量子计算). 我们和国外有差距, 但是并不大, 只有加以投入我们或许能找到更好的路线.

4. 本次实验保真度低 是不是意味着没有用?

答: 保真度低确实是个问题, 需要长期改进. 但这不意味着这没有意义, 在计算模型中本来就有不确定性图灵机/概率图灵机之类的, 我们是可以按照一定概率来接受答案的, 因此, 我们确实没有必要每次都 的算对, 只要相对提高它到一个阈值就可以了. 而且, 这样大数目qubit实验的主要问题来源是crosstalk(串扰)和测量, 只要在这个方向上做一定改进就会有巨大的突破.

5. 这只是NASA的阴谋/贸易战到了最关键的时候/你说的就靠谱?

答: 此类回答一般可以称为反智的阴谋论. 一般不予回答. Google和IBM Q的发布都是针对全世界的, 不是针对某个国家的. IBM Q的小比特数量子计算机(5qubits,16qubits)全世界的团队/个人都可以使用. 本身这些技术的进步都是人类技术进步的一部分, 明明可以考虑如何更好的在化学合成, 制药等领域应用, 某些人眼里就只剩下我们不是第一个, 这玩意就是用来打仗的. 我觉得这种看法对于有专业精神的科学家是挺无语的. 不要拿狭隘的民族主义情绪去评价这件人类意义上重要的事情. 计算机还是外国人发明的, 也没见几个人来大张旗鼓的抵制.

有人质疑怎么还没有正式发布你们就知, 少司命和我算同行. 他做quantum devices, 我算是做超导操控的, 要是我们这些人都不能第一时间得知别的团队的最新进展, 那才是可怕的. 我确实想念以前的知乎, 大家讨论都很专业, 有理有据, 现在真的是一言难尽.

很多人在怀疑说这个文件发布又撤回的操作, 这个原因我直言是因为同行评审的需要, 也可能是要和IBM Q做背对背实验, 而且最近补充材料我也已经看到了, 没有任何可能, 因为这就一个科学家团体的信誉问题, 像John Martinis这些人, 完全不可能因为某种商业需要为一件造假的事情去背书, 因此实际上这是一场泄漏事故而非什么操作.

参考

  1. ^Quantum Supremacy Is Both Closer and Farther than It Appears https://arxiv.org/pdf/1807.10749.pdf
  2. ^ Quantum Supremacy Using a Programmable Superconducting, Nasa
user avatar

毫无疑问的是,这会是量子计算领域一个里程碑一样的大新闻.

9月20号刚刚看到这个消息,据说是NASA发布到官网上而后又迅速删掉,但是内容已经在网上大规模流传开了。文章[1]写的非常简单易懂,我尽量用简单的语言陈述一下这个新闻的主要内容吧(蹭热度),如果没有任何背景可以只看加粗字体部分。如果哪里不准确欢迎指正补充。

首先一个概念,所谓的quantum supremacy,有人翻译为量子优势也有人翻译为量子霸权,一般指的是量子计算在某一个问题上,可以解决经典计算机不能解决的问题或者是比经典计算机有显著的加速(一般是指数加速)。

回到文章,在硬件方面,谷歌家一直用的是超导电路系统,这里是54个物理比特(transmon)排成阵列,每个比特可以与临近的四个比特耦合在一起,耦合强度可调(从0到大概40MHz),实物图和示意图分别如下。


有了硬件就要衡量其性能的好坏,所以首先要知道对这些量子比特进行操作时发生错误的概率(error rates)。这里他们用cross-entropy benchmarking (XEB)的方法测量这些error。XEB早就有了我记得google在今年3月会议时候就讲过,跟randomized bechmarking很像都是加一系列随机的门操作,然后从保真度衰减信号中提取出error rates. 下图是他们最终得到的结果,在没有并行时候单比特0.15%的错误率其实不算高,而双比特0.36%的错误率e2有0.36%则还不错,像google另一个18比特的Gmon18我记得两比特的有0.8%.

下面是文章最重要的部分,google在多项式时间内实现了对一个随机量子电路的采样,而在已知的经典计算机上需要的时间则非常非常之久,像文中实现的最极端的例子是,对一个53比特20个cycle的电路采样一百万次,在量子计算机上需要200秒,而用目前人类最强的经典的超级计算机同样情况下则需要一万年。亦即在这个问题上,量子实现了对经典的超越。这里的cycle指的是对这些比特做操作的数目,一个cycle包含一系列单比特操作和双比特操作,可以近似理解为电路的深度(circuit depth)。 对于最大的电路,即53个比特20个cycle的情况,在量子处理器上做一百万次采样后得到XEB保真度大于0.1% (5倍置信度),用时大概200秒. 而要在经典计算机上模拟的话,因为比特数目很多整个的希尔伯特空间有 而且还有那么多电路操作,这已经超出了我们现在超级计算机的能力(within considerable time),就像文中举的另一个例子,用SFA算法大概需要50万亿core-hour(大概是一个16核处理器运行几亿年吧), 加 kWh的能量(也就是一万亿度电...),可以想见是多么难的事情了。而量子这个问题上为啥会比经典好也非常容易理解,用到的就是量子运算的并行性,即量子态可以是叠加态可以在多项式时间内遍历整个希尔伯特空间,而经典计算机模拟的话需要的资源则是随着比特数目指数增加的。

当然有没有可能是有些更好的经典采样算法和量子的差不多,只是我们没有找到呢?文中没有给出很直接的回答,他们认为从复杂度分析来讲经典算法总是会随着比特数和cycle指数增加的,而且即使未来有一些更好的经典算法,到时候量子的处理器也发展了所以还是会比经典的好。



最后个人的一点comment, 振奋的同时也要保持清醒,我们离着实现量子计算的完全功力还有很远的距离。硬件上有集成化的问题,比如这里的超导比特系统要加微波control要谐振腔readout,比特数目增加后有空间不足和cross-talk等各种问题,远远不止我们图中看到的一个小芯片那么简单; 再一个比特数多了电路深度大了怎么继续提高保真度也是很大问题,像这篇文章里53个比特到第十几个circuit cycle时候保真度只有10的负二次方量级了,怎么decorrelate error实现量子纠错,最终实现容错量子计算等等,这些都是硬件上的挑战;

算法上,除了这里的采样问题(由此延伸的可以解决的问题其实是非常有限的),又有哪些问题是可以证明量子比经典有显著优势的,可不可以设计一些算法使得量子计算机能解决经典不能解决的问题,或者量子比经典有显著的加速,就像文章最后所说的:

...As a result of these developments, quantum computing is transitioning from a research topic to a technology that unlocks new computational capabilities. We are only one creative algorithm away from valuable near-term applications.

在NISQ(noisy-intermediate scale quantum computer)的时代(如下图),虽然我们离绿色真正的容错通用量子计算机还很远,但是现在已经开始进入到蓝色区域相信在未来几年会有一些有趣的near-term的应用出现。


回答一下大家关心的问题吧,以下是个人观点

一个是中国在这方面有什么进展,我们国家在近些年在量子方面投入很大,很多组也做出了许许多多非常突出的贡献,但必须承认的是,至少在我们在文中提到的用超导比特去做通用量子计算机这方面确实还有着比较明显的差距,但是道路是曲折的前途是光明的,我相信国内一定会迎头赶上并在很多领域做出超越的。现在无论学校科研院所还是大企业都有投入和发力,只不过具体方向会不一样很多优秀的成果也没有得到媒体的关注。

再一个问题就是很多同学表示还是看不太懂,确实没有相关背景了解起来会比较吃力,既准确又通俗的科普是件很难的事...anyway, 还是我在文中强调的,文章的内容是量子计算重要的一步但是其应用是非常非常有限的,以后的路仍道阻且长,我们离着可以破解RSA密码离着量子计算机的大规模普及还很远,而且量子计算机也是不可能取代现在用的经典计算机的,这些应该是现在的业内共识。

参考

  1. ^ Quantum supremacy using a programmable superconducting processor

类似的话题

  • 回答
    要评价 Google 宣称的“量子霸权”,我们需要从多个层面进行深入分析,包括其声明的意义、实验的细节、科学界的反应、以及这项技术未来的影响。一、 Google 声明“量子霸权”的意义首先,理解“量子霸权”(Quantum Supremacy)这个词本身非常重要。它指的是一个量子计算机在解决特定问题.............
  • 回答
    Google 宣布即将关闭 Google Code 代码托管服务,这一消息在技术社区引起了广泛的讨论和关注。要评价这一举措,我们需要从多个角度深入分析,包括其历史背景、对用户的影响、以及其背后可能反映出的 Google 战略调整。一、 Google Code 的历史及其在开源社区的地位首先,理解 G.............
  • 回答
    Google 终于在 Pixel 6 上掏出了自家设计的 Tensor 芯片,这绝对是手机圈里的一件大事。你想让我给它评评道,那咱就掰开了揉碎了好好说道说道。首先,得承认,这回 Google 的步子迈得可真够大的。以往 Pixel 手机,尤其是芯片这块,一直都是用高通的骁龙系列,虽然说在软件优化上 .............
  • 回答
    Google 在 TensorFlow 中引入 bfloat16 数据类型:一项深入的分析Google 在 TensorFlow 中引入的 bfloat16 数据类型,是一项具有深远意义的技术创新,旨在平衡计算效率和模型精度,特别是在深度学习的训练和推理过程中。要评价 bfloat16 的引入,我们.............
  • 回答
    评价一位拥有两年经验的Google程序员声称年薪(base+RSU+bonus)在25万至30万美元之间,我们可以从多个维度进行分析和讨论。这是一个相对较高但并非不可能的薪资范围,理解其合理性需要深入了解Google的薪酬体系以及当前的市场情况。一、 Google薪酬体系的构成与特点首先,我们需要了.............
  • 回答
    要评价 Google 的新 Logo 和 VI(视觉识别系统),我们需要从多个维度进行分析,包括其历史演变、设计理念、实际应用效果以及其所传达的信息。一、 Google Logo 的历史演变:奠定基础在深入评价新 Logo 之前,了解 Google Logo 的历史演变至关重要。这有助于我们理解其设.............
  • 回答
    谷歌试图出售波士顿动力公司,这桩发生在2013年公司被谷歌母公司Alphabet收购之后的消息,无疑在机器人领域乃至科技界都掀起了不小的波澜。要评价这件事,咱们得从几个角度细细掰扯。首先,这笔交易的“动机”是关键。谷歌收购波士顿动力,当时普遍解读为是谷歌在“登月计划”(X实验室,后来的Google[.............
  • 回答
    Google内部关于2016年美国大选结果视频流出事件,可以从多个维度进行评价,这是一个涉及公司内部文化、信息安全、员工行为、以及对外部公众认知等多个层面的复杂事件。以下是一个详细的评价:事件概述:2016年11月9日,就在唐纳德·特朗普赢得美国总统大选的第二天,一段据称是Google内部员工在公司.............
  • 回答
    话说回来,Google 在北京时间 5 月 19 日凌晨放出了 Android 12 的首个开发者预览版,这可不像往年那样只是小修小补,而是上来就甩出了一个重量级更新,感觉整个 Android 系统都要焕然一新了。我个人觉得这次的 Android 12 就像是 Android 阵营里的一次“大换血”.............
  • 回答
    Google 在 2022 年 3 月公布的 Pathways 架构设计,绝对是人工智能领域一次重量级的宣言,它不仅仅是对现有模型训练和部署方式的一次革新,更是对未来通用人工智能(AGI)发展路径的一次大胆探索。要评价它,咱们得从几个关键点深入剖析。首先,“单模型,多任务”的核心理念,这绝对是 Pa.............
  • 回答
    Google 最近提出的 gMLP 模型,在计算机视觉(CV)和自然语言处理(NLP)领域都展现出令人瞩目的性能,这无疑为我们理解和构建更强大的神经网络模型提供了新的思路。要评价 gMLP,我们需要深入分析它的设计理念、技术特点,以及它为何能在跨领域任务上取得成功。gMLP 的核心设计理念:对传统 .............
  • 回答
    MLPMixer 的出现,无疑在深度学习领域,尤其是在计算机视觉方向,引起了不小的轰动。它最大的亮点在于,仅凭多层感知机(MLP)就能够在 ImageNet 这样的主流图像识别任务上取得当时(2021年)接近甚至超越 Transformer 的顶尖性能,而且在模型复杂度、计算效率方面展现出显著的优势.............
  • 回答
    谈论 Google 在 Material Design 上的投入程度,确实可以从几个层面来剖析,远非简单的“积极”二字能概括。这更像是一种战略性的、持续性的文化渗透和技术输出。首先,我们得看到 Material Design 的诞生背景和目的。它不是一个心血来潮的设计灵感,而是 Google 为了解.............
  • 回答
    评析TensorFlow 2.0:从“够用”到“好用”的进化之路Google在2019年年底正式发布了TensorFlow 2.0,这标志着这个曾经备受推崇但也在一定程度上饱受诟病的深度学习框架,迈入了全新的时代。相较于其前身,TensorFlow 2.0的发布绝非一次简单的版本迭代,而是一场深刻的.............
  • 回答
    .......
  • 回答
    这事儿在科技圈闹得挺大,得从头说起。事件的起因:一份备忘录事情的导火索是一份由Google内部一名男性员工(后来被披露为James Damore,中文媒体常称之为“达漠”)在2017年8月写的一份备忘录。这份备忘录的名字大概可以翻译成《Google 的意识形态悖论》或者《Google 的意识形态困境.............
  • 回答
    好的,我来好好聊聊 Google Earth VR,这玩意儿,真心是打开了新世界的大门。要评价它,得从几个方面来看。首先,它的核心价值,就是 “无与伦比的沉浸感”。 这不是那种看纪录片,或者翻地图册的感觉,而是你真的,“站”在那儿了。想象一下,你戴上 VR 设备,眼前不再是熟悉的房间天花板,而是瞬间.............
  • 回答
    “Duplex”——谷歌那个能自己打电话订餐、预约理发的人工智能,最近在一些特定的场景下,表现得越来越像个真人了。这让不少人开始思考:它是不是已经悄悄地“通关”了我们熟知的那个“图灵测试”?要评价这个事儿,咱们得先明白图灵测试是个啥。简单来说,图灵测试就是看一个机器能不能骗过人类,让对方觉得它是个“.............
  • 回答
    在我看来,Google Home、Amazon Echo 和 Rokid 这三款智能音箱,从人工智能技术的角度来评价,都代表了当前智能语音交互领域不同方向的探索和实践。它们各自在语音识别、自然语言理解、对话管理、知识图谱应用以及设备联动等方面有着各自的侧重点和特点。Amazon Echo (Alex.............
  • 回答
    .......

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有