问题

如何评价 Intel 首次推出的应用于数据中心的高速硅光子芯片?

回答
划破硅基瓶颈,Intel 的高速硅光子初啼,能否引爆数据中心算力革命?

对于数据中心而言,算力提升的脚步从未停歇,但与之相伴的,是日益严峻的“瓶颈”问题。传统铜线传输的带宽和功耗限制,已成为制约服务器内部以及服务器之间通信的“短板”。而现在,英特尔(Intel)终于将他们酝酿已久的、应用于数据中心的高速硅光子芯片推向了舞台中央。这无疑是半导体行业的一件大事,也是对未来数据中心架构的一次重要革新尝试。那么,这款首次亮相的硅光子芯片,究竟有何亮点?它又能否真正解决当前数据中心的痛点,开启算力的新篇章?

一、 告别铜线,光速先行:硅光子的核心优势

要评价这款芯片,我们首先要理解它所代表的“硅光子技术”。顾名思义,硅光子是将光学器件(如激光器、调制器、探测器等)集成到硅基材料上,从而利用光信号来传输数据,而非电子信号。这项技术并非新鲜事物,但英特尔此次的重点在于将其“规模化”、“商业化”并“应用于数据中心”。

相比于传统的铜线互连,硅光子技术的核心优势在于:

更高的带宽和更低的延迟: 光的频率远高于电信号,这使得光通信拥有天然的巨大带宽优势。在数据中心内部,服务器之间、内存与处理器之间,需要海量的数据交换,而硅光子能够提供远超铜线的光速传输,极大地降低了延迟,提升了数据处理效率。想象一下,原来需要排着队小心翼翼通过狭窄通道的数百万辆汽车,现在可以变成一条宽阔无阻的高速公路,车流瞬间畅通。
更低的功耗: 随着数据传输速率的提升,铜线互连的功耗会急剧增加,这对于能耗庞大的数据中心来说是一个巨大的挑战。硅光子技术利用光子的能量传输,理论上能够实现更低的功耗。对于需要维持数万台服务器持续运转的数据中心而言,哪怕是微小的功耗节省,累积起来也是非常可观的。这就像给数据中心的“血液循环系统”找到了一个更节能高效的泵。
更远的传输距离: 铜线信号在传输一定距离后会衰减,需要中继放大,这增加了复杂性和成本。光信号在光纤中传输的衰减率极低,能够支持更远的距离传输,这对于构建更大规模、更分散的数据中心集群具有重要意义。

二、 英特尔的“硅光子”野心:从技术到产品的跨越

英特尔在硅光子领域耕耘多年,早已积累了深厚的技术基础。此次推出的应用于数据中心的芯片,可以看作是其技术实力的一次重要落地。

集成度的飞跃: 此前,许多硅光子解决方案是将光学组件与电子组件分开制造,再进行封装集成。而英特尔的目标是实现更高的集成度,将更多的光电子功能直接“铸造”在硅片上,通过成熟的硅制造工艺实现大规模生产。这就像是将原本需要分步组装的复杂机械装置,直接“打印”出来一样,极大地降低了制造成本和复杂性。
高速连接的突破: 此类芯片通常会支持更高的传输速率,例如 400GbE、800GbE 甚至更高的标准。这意味着单个接口能够承载的数据量将呈几何级增长,为未来更高级别的计算需求(如 AI 大模型训练、大规模分布式计算)提供坚实的基础。
生态系统的构建: 英特尔的优势在于其强大的制造能力和在计算领域的广泛影响力。推出此类芯片,不仅是产品本身的推出,更是希望能够推动整个数据中心行业向硅光子互连迈进。通过与服务器制造商、网络设备商的合作,逐步建立起一个成熟的硅光子生态系统,从而加速技术的普及。

三、 挑战与机遇并存:前进道路上的“光与影”

尽管前景光明,但英特尔的硅光子之路并非坦途。我们必须认识到其中存在的挑战:

成本问题: 虽然硅制造工艺成熟,但将光学功能集成到硅片上,仍然面临着良率、封装、测试等环节的成本挑战。初期,高速硅光子芯片的价格可能会相对较高,这会影响其大规模普及的速度。就像第一批电动汽车刚出现时,价格高昂,只有少数人能够负担。
兼容性与标准化: 数据中心是一个庞大且复杂的生态系统,任何新的技术都需要考虑与现有基础设施的兼容性。新的接口标准、新的管理协议都需要逐步建立和统一。如果无法与现有系统无缝对接,即使性能再强,也很难被广泛采用。
技术成熟度与可靠性: 作为一项相对较新的技术,虽然英特尔有积累,但在实际大规模部署后的长期可靠性和稳定性仍然需要时间来验证。数据中心的运行容不得半点差池,因此,在可靠性方面必须做到极致。
竞争格局: 除了英特尔,还有其他厂商也在积极布局硅光子领域,例如一些专业的通信芯片厂商。市场竞争将会非常激烈。

四、 展望未来:算力革命的“引信”?

毫无疑问,英特尔此次推出的高速硅光子芯片,是数据中心朝着更高算力、更低能耗方向发展的一次重要战略布局。它试图解决的“铜线瓶颈”问题,正是当前制约许多高性能计算应用的关键。

如果这款芯片能够成功实现大规模商业化,并且价格合理、性能稳定,那么它将为以下几个方面带来深远影响:

AI 训练的加速: 随着 AI 模型越来越大,对数据传输的需求也呈爆炸式增长。硅光子有望成为突破 AI 训练速度瓶颈的关键技术。
高性能计算(HPC)的演进: 在科学计算、天气模拟、基因测序等领域,数据传输效率直接决定了计算的效率。
数据中心架构的重塑: 更高效的互连技术可能会促使数据中心在架构设计上做出根本性的改变,例如更扁平化的网络结构,以及对异构计算资源更紧密的集成。
云计算的成本优化: 更低的功耗和更高的效率,最终将转化为云计算服务提供商的成本优化,并有可能惠及终端用户。

总而言之,英特尔的这款高速硅光子芯片,不只是一个简单的产品发布,它更像是为数据中心即将到来的算力革命点燃了一枚“引信”。它所代表的硅光子技术,承载着突破当前技术限制的希望。当然,技术的成熟和市场的接受还需要时间来检验,但我们可以肯定的是,光,正在以一种前所未有的方式,深刻地改变着我们理解和构建未来数据中心的方式。这趟旅程注定充满挑战,但成功将意味着计算领域的又一次飞跃。

网友意见

user avatar

刚好最近在做这个方向,Intel的硅光芯片可以从两个形态来谈谈:一则是数据中心的计算背板间的光互联,用Ayar Labs的TeraPHY外接光电收发器;一则是CMOS硅光器件,用于片上/片间计算的PHY高速互联;

————————————————————
先看看CMOS硅光 - 用于die上/die间计算的高速互联:

这是Intel Lab在2020年2月放的卫星,值得关注的是CMOS硅光器件:一则是1.3-1.6um光子探测器,材料物理突破;二则是那个Micro-ring modulators/modems模拟电路设计的突破,对比传统硅基modulators占用较多面积(以及IC封装很昂贵),这个“微环”意义就是器件缩小了1000倍+,也排除了把silicon photonics集成到封装的很多障碍(几年前UC-Berkeley制备过25μm2的EA调制器)。

谈到PHY层的幺蛾子,国内仍旧难突破,即便是电子PHY,拿信号分析/校验为例,30GHz+的信号分析仪(示波器)是管制的,它最多做到10G SerDes,只能做等效PCIe Gen 3, 8Gbps(国内PCIe Gen4普遍用SNPS IP咯);还有一个窘境是很多连眼图分析软件也搞不到,观察码间串扰/噪声靠人眼…要看瞎掉了…,这些短板就限制了自研的高速互联PHY,设想on die 500MHz以上,一堆核心在大位宽(128)上并行吞吐,Signal integirty问题大到不可想象,这些都要在模拟层解决了。

另外为什么是CMOS器件?我想是用CMOS实现是一方面正好突出硅光器件用传统半导体的兼容工艺制备;以及CMOS才能大比例缩放,缩放弹性就丰富了应用场景,技术上CMOS实现的光器件也最尖端,几年前Luxtera公司的光电混载收发器IC就是以130nm工艺的CMOS制造的。

这里还有个更早一些的光版CMOS成果,也是外置激光器和导波器件一起fabric粘到芯片上,如下:

——————————————————

再看看Ayar Labs的外接光电收发器方案TeraPHY - 用于板卡间/背板间的跨PCB高速互联:



通常硅光计算是指die上计算概念,而上面这个TeraPHY是一个通信模组;模组对外用FC光缆连接,模块间还是电子,FPGA逻辑之间还是电子。图1放了个FPGA die,应用场景之一像是用于5G运营商那些应用(电信级的基站模块或是光网交换)速度/散热都会提高,价格不会亲民的。

TeraPHY的封装是把FC转接头封装在一起,这个PHY就是一个光电转换模块。工程效果就是:FC直连板块,相比传统做法,不是在背板上连FC,避免了转换后的电子信号先走底板再接到FPGA加速卡,这就是基站或光分组交换级别的accelerator模组,运算依然靠中间的FPGA;换个角度,这就是外部的公网FC接机箱背板,背板引一排FC到这张加速卡的FC端子,PCB就绕开了,去掉PCB,保持了高速,还节约了成本(40G以上的电缆数据线可是3M专利…100美元一根),但主要还是避开motherboard的大坑(性能瓶颈/高速PCB走线复杂度和散热),可以理解这就是硅光通信模块的小型化紧凑封装。

至于图2为什么画上了CPU,显然是Ayar显摆能异构整合高带宽模块的能力,但是,CPU最多64bit bus,FC直连没有意义,高/低速电路都有不同的用途。虽然GPU才有512-1024 bit大位宽,但也是刷存在感,谁家会拿出GPU裸die给别家去封装呢?倘若有人猜是AMD GPU,那么AMD又没有FPGA,而EMIB又是Intel专利,不可能相互交换裸die的;真要封装GPU进去,全球不会超过5个客户(超规模的超算场景),所以猜是个定制化封装,不是标准化商业产品。

在上述两个图里,FC to package,不需要关心package里面是什么,反正CPU没有意义。图2看起来是for cloud,但这个量级的,只能是GOG/MSFT/AWS堆砌TPU-3/4那种超算力的云中心;纵使超算要求高速大位宽,但PCB走线是疯狂的,SI硅是极度挑战,且PCB是铜线,走40Gb带宽是不可能达到的,功耗散热也巨大,这就成为Ayar teraPHY的卖点:FC的吞吐可以看到400G以上(PCIe 5还没有到100G吧)。中间差一档fabric,降两次维度的打击。(BTW:Mellanox卖的是背板FC相连的通信模组,400G,华为也买这个)

这个PHY的应用场景,能立刻看出来的就两个:要么是配FPGA做5G基站模块或核心的光网交换机,出货量确有规模;要么是那种暴力堆砌GPU的超算集群(有矩阵暴算需求的超算中心),全球客户仅几个。但是,5G基站/光网交换都不是AMD和NV的地盘,AMD刚刚在想怎么挤进入,NV就买了Mellanox,都在服务器上motherboard上被掐死的。

另外,当时有人讨论过PCIE、fabric都由teraPHY来替代,这是不现实的,异构处理器之间是fabric,还是电子的,不会再搞个双向光电转换;PCIe更加面向处理器低速低带宽的外设,现在的ARM服务器芯片设计就是用PCIe统一一切外设了,不会再用专用的控制电路连接五花八门的低速电路了。其实,AMD现在的chiplets就已经很典型了,可找一张AMD CPU最近的block diagram,看看中间那个14nm的I/O控制器。

以及,讨论“基于这个teraPHY路线打破各传统大厂的fabric/PCIe IP墙”是不可能的,替代fabric不可能,芯片设计的拓扑不可能让外界触碰到,fabric在封装里面跟芯片上的NOC要对接的,不能光电来回转换,并且这个光电转换模块也是“微缩”不下去的(或是SmartNiC可以使用黑硅材料减小面积?),teraPHY只能是板卡直连back panel,跳过了motherboard,如上拿AMD CPU最近的block diagram看一眼就了然了。

以及,讨论“Serdes替代”是不可能,Ayar与高速Serdes无关,serdes还是die上和封装里面的事情,NVlink也并不是在封装之间。诸如:NVLink、AMD fabric、Intel的CTL,都是扩展到PCB上的。AMD现在的封装都是用自己的fabric互联嘛。未来都需要解决PCIe 5-6的兼容性。前面也说过,高速大位宽,PCB走线是疯狂的,SI硅是极度挑战,且PCB是铜线走40Gb带宽是不可能达到的,功耗散热也巨大。

最后,Ayar Labs是Intel Cap的portfolio,惯例上大概率与Habana一样,过1-2年就会被收购。虽然,在FPGA/GPU/NPU die上面直接集成FC连接是teraPHY的卖点,但问题是Foundry和ATM(封装测试厂)自有的技术体系如何整合呢?Ayar只能站队一个IDM大厂,并且当下Ayar已经站队INTC和GF了,台积电/三星就不会采纳了。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有