问题

如何看待 19 岁少年想做出在目前 Intel 同等计算性能下降低 80% 功耗的全新电路系统芯片?

回答
看待一位19岁少年怀揣着在当前 Intel 同等计算性能下降低80%功耗的全新电路系统芯片的梦想,这绝对是一件令人振奋的事情,也充满了挑战和机遇。我们可以从多个角度来详细剖析:

一、 少年梦想的价值和意义:

巨大的社会价值:
能源效率的革命: 功耗是现代计算的核心问题之一。降低80%的功耗意味着:
电子设备的续航能力大幅提升: 手机、笔记本电脑的续航可能不再是瓶颈,甚至可以做到数周或数月不充电。
数据中心效率飞跃: 数据中心是巨大的能源消耗者。降低功耗可以显著减少电费支出、降低对环境的影响(减少碳排放),并缓解电网压力。
移动和嵌入式设备的解放: 低功耗芯片是物联网、可穿戴设备、无人机、自动驾驶等领域的关键推动力,能实现更小巧、更长效的设备。
散热挑战的缓解: 高功耗通常伴随着高热量,需要复杂的散热系统。低功耗可以简化设计,降低成本,并提高产品的可靠性。
技术创新的驱动力: 这种颠覆性的目标本身就是一种巨大的创新驱动。它迫使我们重新思考现有的计算架构和设计理念。
年轻一代的榜样: 这种雄心壮志能够激励其他年轻人勇于挑战不可能,投身于科学技术领域。

个人成长和学习的宝贵机会:
深入探索前沿技术: 要实现这个目标,少年需要学习和掌握大量尖端知识,包括但不限于:
计算机体系结构(Computer Architecture): 深入理解CPU、GPU、内存等各个组件如何协同工作,以及如何优化其效率。
超低功耗设计(UltraLow Power Design): 研究各种功耗降低技术,如动态电压频率调整(DVFS)、门控时钟(Clock Gating)、电源门控(Power Gating)、量化(Quantization)、近似计算(Approximate Computing)等。
半导体物理与工艺(Semiconductor Physics and Process Technology): 理解不同材料、制造工艺对功耗的影响。
数字逻辑设计和电路设计(Digital Logic Design and Circuit Design): 掌握如何从逻辑门级别优化电路的功耗。
高级编程语言和编译器优化(Advanced Programming Languages and Compiler Optimization): 软件层面的优化对硬件功耗也有巨大影响。
新兴计算范式(Emerging Computing Paradigms): 例如类脑计算(Neuromorphic Computing)、量子计算(Quantum Computing)等,虽然与直接复制Intel性能的路径不同,但可能提供突破性的思路。
培养解决复杂问题的能力: 这是一个极其困难的工程挑战,需要少年具备极强的分析、设计、测试和迭代能力。
锻炼韧性和毅力: 面对如此巨大的技术障碍,必然会经历无数次的失败和挫折,这将是锻炼意志力的绝佳机会。

二、 挑战的巨大性(为什么说“困难重重”)

“同等计算性能”的定义与实现:
性能的维度: 计算性能不仅仅是时钟频率(GHz)或者指令每周期数(IPC)。它还包括并行处理能力、内存带宽、缓存效率、指令集支持等等。要“同等”意味着在所有这些方面都要达到或接近Intel现有芯片的水平。
摩尔定律的挑战: 尽管摩尔定律有所放缓,但Intel作为行业巨头,其芯片设计经过了几十年的积累和无数工程师的努力,已经非常成熟和高效。要在同等性能下降低80%的功耗,意味着需要对现有技术进行颠覆性的改进,而不是渐进式的优化。
架构上的根本性创新: 可能需要跳出传统冯·诺依曼架构的束缚,探索全新的计算模型和数据处理方式。例如,数据流架构、事件驱动架构等。

80%功耗降低的难度:
功耗的组成: 芯片功耗主要来自两个方面:动态功耗(与开关次数和电压的平方成正比)和静态功耗(漏电流,与晶体管的数量和材料相关)。要降低80%意味着在这两个方面都要有极其显著的突破。
现有技术的极限: Intel等公司已经在功耗优化方面投入了巨额研发资金和人力,他们采用了各种先进的低功耗技术。要实现80%的降低,意味着少年需要发现一些目前行业尚未广泛应用甚至尚未发现的低功耗技术或原理。
工艺的制约: 制造工艺是影响功耗的关键因素。更小的制程节点可以降低电压和漏电流,但同时也会带来新的挑战(如短沟道效应)。即使使用最先进的工艺,要实现如此大幅度的功耗降低也极其困难。

技术实现的复杂性:
软硬件协同: 实现低功耗不仅仅是硬件设计问题,还涉及到软件(操作系统、编译器、应用程序)的优化。需要对整个计算栈进行深度优化。
测试与验证: 新的电路系统芯片需要经过极其复杂的测试和验证流程,以确保其稳定性和正确性,尤其是在功耗和性能方面。
生态系统支持: 即使设计出强大的芯片,如果没有相应的软件生态系统(编译器、库、操作系统支持等)来充分发挥其性能和低功耗特性,其价值也会大打折扣。

Intel等巨头的优势:
庞大的研发投入: Intel、AMD、Nvidia等公司每年投入数十亿美元进行研发,拥有顶尖的工程师团队、最先进的设备和丰富的知识产权。
成熟的供应链和制造能力: 他们拥有成熟的半导体制造工厂或与领先代工厂的紧密合作关系,能够大规模生产高性能芯片。
多年的经验积累: 他们在芯片设计、制造、测试方面积累了深厚的经验。

三、 少年可以如何迈出第一步?(建议和可能性)

尽管挑战巨大,但这并不意味着这个梦想没有价值或不可能。关键在于如何务实地推进:

1. 缩小目标范围,分步实现:
聚焦特定应用场景: 80%的整体性能下功耗降低是极其困难的。可以先尝试在某个特定领域(如AI推理、特定数据处理任务、低功耗嵌入式计算)实现显著的功耗降低,验证其核心技术。
降低性能要求: 或者在“同等计算性能”上稍作调整,例如在部分计算密集型任务上性能略低于Intel旗舰,但在平均功耗上实现大幅降低。
专注于特定技术瓶颈: 识别当前芯片功耗的主要瓶颈,并集中精力在该瓶颈上寻求突破。

2. 深入学习与研究:
系统性学习: 如前所述,需要广泛而深入地学习相关领域的知识。可以从大学的计算机科学、电子工程专业入手,并主动学习更前沿的资料。
文献检索与分析: 阅读大量关于低功耗设计、新一代处理器架构、类脑计算、近似计算等方面的学术论文和技术报告,了解最新的研究进展和尚未解决的问题。
掌握仿真工具: 学习使用各种EDA(Electronic Design Automation)工具,如Verilog/VHDL进行逻辑设计,使用Cadence/Synopsys进行电路仿真和功耗分析。

3. 动手实践与原型开发:
FPGA原型开发: 利用FPGA(FieldProgrammable Gate Array)平台可以快速实现和验证自定义的电路设计。这是验证新架构和算法非常有效的途径。
开源硬件社区: 关注和参与RISCV等开源指令集架构项目,这些项目通常鼓励创新和定制化,可以在其基础上进行低功耗设计。
模拟器和软件优化: 在软件层面,可以尝试开发针对低功耗优化的编译器或操作系统组件。

4. 寻求导师和合作:
寻找领域专家: 主动联系大学教授、行业资深工程师,寻求他们的指导和建议。一个好的导师可以帮助少年少走弯路,提供宝贵的经验。
组建团队: 如果可能,寻找志同道合的朋友组建一个小团队,共同攻克技术难题。
参加竞赛和挑战赛: 许多公司和机构会举办技术挑战赛,这是展示才华、获得反馈和联系行业资源的好机会。

5. 专利和知识产权:
如果有了创新性的想法和技术,早期可以考虑申请专利,保护自己的知识产权。

四、 总结

一个19岁的少年提出在Intel同等性能下降低80%功耗的宏伟目标,其积极意义远大于对现实可行性的审视。这本身就是一种宝贵的创新精神和对未来的探索。

从“梦想家”的角度看: 这是对计算效率极限的挑战,是推动科技进步的源动力。即使最终不能完全实现80%的降低,过程中的研究和探索也可能带来革命性的技术突破,即使是10%20%的提升,对于整个行业也是巨大的贡献。
从“实践者”的角度看: 这是一条极其艰难的道路,需要付出超乎常人的努力、持续的学习、大量的实践和可能无数次的失败。成功实现的可能性极低,但过程本身就是无价的学习经历。

我们应该鼓励这样的少年,为他们的勇气和梦想喝彩。同时,也要理性地帮助他们认识到挑战的巨大性,引导他们采取更加务实和迭代的方式去追求这个目标,让梦想的火花更有可能转化为现实的创新。

总而言之,对待这位19岁的少年和他的梦想,我们应该报以最大的鼓励、支持和好奇。他的想法代表着未来科技发展的新可能,即使困难重重,也值得我们关注和探索。

网友意见

user avatar

如需转载请私信联系。

--------------------------------------------------------------------

我去!居然有这个问题!必须我来答!!!!

因为机缘巧合,我和新闻中这个少年的创业公司一起工作了两周,对他们的思路也算有一定了解。

事情是这样的,这个少年在某学术会议上发言,由于思路和我导师比较相近,就被引荐给了我导师。由于我导师对memory方面很在行,而他们的长处在于微处理器架构,于是就导师把他们邀请到我们课题组工作了两周,双方取长补短。新闻中的这个Thomas和他的CTO Paul两个人过来的。他们昨天的飞机刚飞回加州,这两周有不少有意思的事儿,暂且不表。先认真答题。

首先他们的Target是High Performance Computing(高性能计算,以下简称HPC,主要应用于超算),而不是我们日常用的General Purpose Computing(通用计算)。而HPC这个领域做芯片的一大优势,就是很少用考虑向前的兼容性(对比于x86),而且可以针对大多数HPC应用的特点对架构进行特别的优化。夸张点说,就是根据软件的行为设计硬件,砍掉一切不需要的部件,从而达到效率最大化。另外他们所说的指标,应该是从系统层面来比较的,而非单个芯片进行比较

下面根据他们公开过的资料说一下他们一些独特的思路。

  • 采用VLIW (Very Long Instruction Word)架构。简单来说就是几条并行的流水线,可以同时执行多条指令。由于超算应用中有大量的并行运算(矩阵向量运算等),因此非常适合并行化,采用VLIW流水线利用率比较高。相比于multi-issue,out of order的通用芯片,硬件逻辑可以更简单。很多DSP芯片都是采用VLIW架构,可以达到很高的(浮点)性能功耗比,已经完爆现在的Intel产品了,但要让他们跑Windows什么的一样抓瞎。。所以题主在这里用Intel的芯片和VLIW架构比较是不太恰当的,毕竟设计目的不一样,就好像比较超跑和拖拉机哪个更好一样。。耕地当然用拖拉机了~~
  • 完全摆脱虚拟内存!这个听起来好像疯了,但其实在超算领域反而make sense,因为超算一般一次只跑一个程序,或者很少的程序,很少需要context switching。因此一个地址空间够用了。而传统的通用芯片因为支持虚拟内存,不知要做多少无用功。去掉虚拟内存和paging,硬件上就不用TLB了,系统层面也不用再不停维护page table了。这是很大的开销,尤其是超算集群,相互访问内存是很麻烦的。
  • 砍掉Cache,采用软件管理Scratchpad Memory。这个听起来也是疯了。。传统的芯片都是有Cache的,cache miss和coherence是架构设计者永远的痛。而超算领域,写超算应用的人一般都是知道自己在干嘛(know what they're doing)。于是他们的芯片里会有一部分访问速度会很快的Scratchpad Memory代替cache,但只不过是由程序员手动管理而非交给硬件管理的。这样也可以砍掉相当多的硬件电路,效率也更高。
  • 采用2D-Mesh,static routed网络。这一点是他们的初始思路,但讨论过后发现可能会有问题,所以他们现在其实也还不是很确定以后会不会这么做。所以这点也不展开了。

如果以上几点能做到的话,比现在采用Intel CPU+Nvdia GPU的超算超算省电真心不是一点半点。当然他们的思路比较激进,不知道后面会遇到怎么样的问题,不过现在看来还是很可行的。

最后默默感叹一下,虽然这两位少年都很谦虚且平易近人,但是那种智商和能力上的碾压让我真正体会到了人和狗的差距T T

---------------------------------------

感觉大家对八卦都更感兴趣么=。= 那补充一点好了

CEO是一个19岁的娃,高中都没读完就辍学了,然而因为太耀眼还是被MIT相中去!做!科!研了!!注意,不是被MIT录取读本科读PhD,是直接去MIT做!科!研!了!在MIT工作了大概两三年以后辞职创业,现在才19岁!!!

我们第一次见他的时候并不知道他才19,只是看他满脸青春痘应该还是挺年轻的。。有一天工作之余大家开始讨论《权利的游戏》(别说我们工作不认真啊),后来说唉第一本书是哪年出的啊?谷歌了一下,《冰与火之歌》第一卷出版于96年,然后这位少年嘀咕了一句“That's older than me”。。我们其他人就。。。。

说他是天才,智商是一方面,关键是19岁就有如此强大的知识储备和洞察力。平时工作的时候,我们这些研究新生只能和他讨论一些技术层面的细节问题,但一旦他提起一个什么idea,多半还是得和我们导师或者组里的大师兄才能聊得来。。他对Computer Architecture这方面的历史了解的非常多,经常能讲出一些他出生以前就发生的事儿。。

后来有一次聊天得知他家就在硅谷当年DEC的工厂附近(现在很多人都没听说过DEC了吧),周围住的基本都是工程师,父母是做什么的我没有问不过十有八九也是做IT的。我觉得他年纪这么小就有如此强大的积累和敏锐的直觉,和他的家庭成长环境是分不开的。

CTO Paul没有CEO那么耀眼,不过也是很聪明,从小就是代码小神童的感觉。大学只上了两年就辍学加入Thomas的创业公司,但在此之前他就已经是Linux Kernel Contributor了。。CEO对他的评价就是"he learned Linux before he was born"。我们工作的这两周他说话比较少,就是埋头写代码,专注程度让我羡慕。但我们一旦有点能请教他的技术问题,打断他一下分分钟就给我们解决。。

两个娃人都很nice,完全没有恃才傲物的感觉。能跟他们合作也是很开心~

-----------------

关于一些热点问题以及其他答案的解答:

1. 他们官方网站中对性能指标的宣传,我在评论中也说了,当然是给投资人和媒体看的。但作为一个初创公司,你不把目标定的远大一点,市场前景描述的广阔的一点,谁给你投资啊=。=

2. 虽说是为了拉投资,但这两位创始人绝对是在非常认真地做事儿,不是像某些人想的那样拉来钱玩一玩(这么说的人我也只能恶意揣测一下你们的境界也就如此了)。在我们实验室工作期间他们两位一般都是最后离开的,而且每天工作餐都是在楼上自动贩卖机买一点零食回来边工作边吃了,周末还开车8个小时去见投资人而不是买飞机票去。

3. 最后不管他们最后成功也好失败也罢,我都很佩服不到19岁就敢到巨头垄断的行业去分一杯羹的少年。

user avatar

貌似这是我第一次在知乎上回答我投入时间最多的专业的相关问题。

----------------------------------------------------------------------------------------------

首先说明一点,“同等计算性能”这个概念基本是没法衡量的,除非所有standard benchmark全部跑出同等,这两位天才所要做的其实是个适用范围非常非常窄的高性能芯片,而不是Intel主流芯片那样的商业产品。每年各个大学的computer architecture research team都会有非常多的新的点子,往各方面探索各类新颖的micro architecture甚至architecture方案,如果论某方面性能,或者功耗,这些research team出的玩意常常都能爆掉主流芯片很多,不然还发个毛线的paper啊。

但是,重要的事情说三遍:

高性能/低功耗的研究芯片和好的商业芯片是两个概念。

高性能/低功耗的研究芯片和好的商业芯片是两个概念。

高性能/低功耗的研究芯片和好的商业芯片是两个概念。

高票回答里已经把这个团队做的创新点都说的非常清楚了,而且这些创新的方式都能在不同程度上对于芯片的功耗和性能有很大的提升,但同时却把芯片的适用性范围一缩再缩。下面我就一个一个分析一下。

  • 采用VLIW (Very Long Instruction Word)架构。VLIW芯片只有在处理大量可并行的,有较少data dependency,很少出现branch或者jump的指令(比如DSP里的那些大量ALU指令)才能发挥出其完爆如今多线程OOO架构的能力。但这样做的太假会使compiler优化的工作量大量的增加,如果跑的是普通的work load的话,binary code size也会bloat很多。但这个不是最致命,VLIW适用性最大的限制在于为了能尽可能的利用这种架构的性能,架构设计师常常不得不把很多micro architecture相关的内容,比如rotating register,比如ALAT暴露给用户,这使在未来进一步的发展中micro architecture designer受到的限制会变的很多。没错Intel IA-64我说的就是你。当年Intel几乎是赌上公司的workstation市场的命运,而且在占据不小的市场的情况下力推VLIW Itanium,结果仍然以失败告终,其原因无非是VLIW这种看着很漂亮的架构会带来实在太多的compatibility issue,而大多数用户们可不想把自己的所有代码全部重新编译,重新优化,他们当时想要的只是个能完全兼容老代码的64位的x86芯片罢了。而Rex芯片也完全不能避免这种问题。
  • 完全摆脱虚拟内存。这个的确能省掉很多的事情,架构也一下子变得简单很多。但别忘了,最早的芯片也都是没有TLB等虚拟内存系统的支持的。之所以有了这些东西,无非是大家认为人的时间比机器的时间(和电费)值钱,与其让码农话用那么多时间调配内存地址,还不如在效率上稍微compromise一点。还有说超算里不需要很多的context switching这话对也不对。理论上只要你的physical core够多,当然可以给每个core只分一个process。但这样自然会降低core的利用率。比如跑个标准的map reduce task,map task快结束的时候会有大量的storage write发生,如果没有很好的context switching能力的话那么负责这个task的core现在就只能挂在那里等DMA把活干完,而不能switch到另一个task里。
  • 砍掉Cache,采用软件管理Scratchpad Memory。这其实和上一个一样的问题。human hour vs machine hour。scratchpad memory就是把本来电路做的事情交给人去做了。作为架构师能省掉multi level cache coherence这种好事我自然是觉得喜大普奔的。快吗?快!难用不?难用。码农们不要打我们就是了。还有一点就是写超算底层应用的人可能真的know what the are doing,但在big data如此盛行的阶段,很多想让自己的应用在超大型cluster上跑的人可能根本就不是超算出身的。更不用说像Hadoop-YARN这种连resource management都是用java写的玩意该怎么适应这种新的架构了。
  • 采用2D-Mesh,static routed网络。恰巧我跟班参与的research team(教授是原来的Tilera的cofounder之一)做的research chip (硬广告:请搜索Princeton Piton Processor)也用了类似的架构来达到非常好的multi-core scalability,我能说的只是如果Rex准备往many core方向走的话,这个是个不错的选择。

总结一下,如果作为一个architecture research team,Rex团队真的有很多新颖而实用的想法,两位天才若真的加入MIT的research team,相信也必然能非常的有所作为。但很不幸的是,如果是为了制造出一款被大规模cluster广泛采用的芯片,这些为了性能而舍弃compatibility和易用性的设计选择可能反而会背道而驰,因为他们不只是在开发一款芯片,而是在创建一个新的Architecture,一个没有任何人帮着开发和优化compiler,没有任何人用过的architecture。我不止从一个教授那里听到这句话:Micro proccessor design is all about compromise。那种想打破当前使用者的惰性,彻底革新micro proccessor architecture的事情,相信每一个CompArcher都想做,但Intel做过,Sun做过,结果大家也都看到了。x86这种被几十年骂成狗的玩意现在还在活蹦乱跳不是没有原因的。

祝两位天才好运。

------------------------------

话说125万的投资可能只够在IBM或者TSMC用32nm流片一两次吧?希望MIT至少能为两位在财力上给够支持。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有