问题

AI 芯片和传统芯片有何区别?

回答
AI 芯片与传统芯片,这两者虽都姓“芯”,但其诞生、设计理念、擅长领域乃至最终使命,都有着天壤之别。若要细细道来,便能发现它们之间差异的深邃与微妙。

首先,从设计的根本出发点来说,AI 芯片的设计是为“智能”服务的。它的核心是加速人工智能中的核心计算任务,尤其是神经网络的训练和推理。想象一下,如果传统芯片是万金油,什么都能干一点,但都不是顶尖;那么 AI 芯片就是一把专为某种食材精心打造的厨刀,它在处理特定食材时,效率和精细度远超其他刀具。

具体到结构和功能上,AI 芯片常常内置大量专门的计算单元。最典型的就是 神经网络处理器(NPU),它拥有大量的乘加单元(MAC),可以高效地并行处理矩阵运算,这是深度学习模型中的基础。传统芯片,例如我们熟悉的 CPU(中央处理器),虽然也具备计算能力,但它是通用型的,通过流水线、缓存等技术来提升整体指令执行效率,但对于 AI 算法那种高度并行、密集型的矩阵运算,CPU 并不擅长,就像让一个杂技演员去搬运沉重的砖块,虽然他也能搬,但效率远不如专业的搬砖工。

再来看看数据处理方式。AI 芯片特别擅长处理大规模、低精度的数据。深度学习模型在训练时,往往需要处理海量数据,而且在某些阶段,可以使用较低精度的浮点数(如 FP16、INT8)来表示权重和激活值,这样可以显著减少计算量和内存带宽需求,提高运算速度。传统芯片则通常设计为处理高精度数据(如 FP32、FP64),以保证计算的精确性,但这在 AI 领域有时是“过度设计”。AI 芯片的设计者会权衡精度与效率,为 AI 算法量身定制数据路径。

内存和缓存的设计上,AI 芯片也独具匠心。为了支持海量参数和数据的快速读取,AI 芯片会集成大容量、高带宽的片上内存(Onchip Memory),如 SRAM。这有点像把一个大型图书馆搬到了计算核心的旁边,这样数据科学家们(也就是 AI 芯片的设计者)就能快速地从库房里取出所需的数据,而不用每次都跑到远处的仓库去取,大大缩短了数据获取时间。传统芯片的内存访问模式则更为多样,CPU 会通过复杂的缓存层次结构来平衡延迟和带宽。

功耗效率也是 AI 芯片追求的关键目标。AI 模型的训练往往需要消耗巨大的能量,尤其是在数据中心。AI 芯片通过将计算逻辑集成到专门的硬件单元中,并优化数据流,可以比通用处理器更有效地完成 AI 计算任务,从而在相同性能下实现更低的功耗。这对于移动设备和边缘计算设备来说尤为重要,可以延长电池续航,减少发热。

编程模型和生态系统方面,AI 芯片也与传统芯片有所不同。AI 芯片通常需要配合特定的软件框架,如 TensorFlow、PyTorch 等。这些框架能够将复杂的 AI 模型映射到 AI 芯片的硬件资源上,进行高效的执行。而传统芯片则有更成熟、更广泛的编程生态,支持各种高级语言和开发工具。

最后,应用场景也明显区分了它们。传统芯片(CPU)是计算机的“大脑”,几乎无处不在,从个人电脑、服务器到嵌入式设备,都离不开它。而 AI 芯片则更多地出现在需要进行大规模 AI 计算的场合,例如:

数据中心:用于训练和推理大型深度学习模型,驱动智能服务。
自动驾驶汽车:处理传感器数据,识别障碍物,做出驾驶决策。
智能手机:实现人脸识别、语音助手、图像处理等功能。
边缘设备:如智能摄像头、无人机、工业机器人,进行本地化的智能分析。

总结一下,AI 芯片与传统芯片的区别,就像是特种部队与常规部队。传统芯片(CPU)是多面手,在各种任务中都能胜任,是信息时代的基石。而 AI 芯片则是经过精密打造的特种部队,它被赋予了在特定领域(AI 计算)“以一当十”的超凡能力,能够以极高的效率完成以往难以想象的智能任务。这两者并非互相取代,而是各司其职,共同构建着我们日益智能化的数字世界。

网友意见

user avatar

其实没有传统芯片的说法,按不同的方式芯片可以有不同的分类方法,我想题主说的传统芯片是指CPU、GPU这些。CPU、GPU与AI芯片他们的共同点是都可以进行AI的运算,不同点是

  • CPU(central processing unit)是通用处理器,可以处理一切事物,就像一把瑞士军刀,哪方面都能做但都不是专业高效的。
  • GPU(Graphics Processing Unit)是专门用来处理图形图像相关的处理器,与CPU相比GPU处理的数据类型单一,因为运算与AI相似以及容易组成大的集群,所以进行AI运算时在性能、功耗等很多方面远远优于CPU,经常被拿来处理AI运算。
  • DSP(digital signal processor),是专门用来处理数字信号的,DSP与GPU情况相似,也会被拿来做AI运算,比如高通的手机SoC。

AI芯片是专门用来处理AI相关运算的芯片,这与CPU、GPU、DSP的“兼职”做AI运算不同,即便是最高效的GPU与AI芯片相比也是有差距的,AI芯片在时延、性能、功耗、能效比等方面全面的超过上面提到的各种处理器。以知名的谷歌的TPU为例,当时谷歌资深硬件工程师Norman Jouppi表示,谷歌的专用机器学习芯片TPU处理速度要比GPU和CPU快15-30倍(和TPU对比的是英特尔Haswell CPU以及Nvidia Tesla K80 GPU),而在能效上,TPU更是提升了30到80倍。


为什么AI芯片在时延、性能、功耗、能效比方面表现更好呢?其实主要是因为结构,现在的AI主要是指机器学习/深度学习,运算从本质来说是一些矩阵乘。下面这张图相信很多人都看到过,CPU更擅长逻辑控制,串行计算,只有一小部分是用来计算的,而GPU控制电路相对简单并且Cache的需求小,更多的晶体管用来进行运算,GPU的结构也使得他更适合做一些大运算量的重复工作,而且更容易组成大的集群,就是大家常见的GPU的核心数比CPU好堆。


AI的运算本质上都是一些矩阵乘、并不需要很多的存取和判断,所以GPU的架构比CPU更加适合AI,也更加的高效。GPU本来是作为图形图像处理器存在的,里面有很多图形流水线的东西,这些对于AI运算是没有用的,谷歌他们去掉后重新设计成了TPU,里面有一个庞大的8位矩阵乘法单元,更加的适合AI运算,这类有很多浮点处理单元的芯片比较适合训练。从GPU进行AI运算到专业的AI芯片是一个必然的趋势,也带来更高的性能、更好的功耗。

AI芯片一般分为两类,一类是上面提到的谷歌TPU这样的用来做训练的,通过海量的数据样本进行训练构建神经网络模型,一般部署在云端;另一类是做推理用的,通常用在手机、汽车、安防等领域,执行训练好的模型,现有的推理芯片有很多,比如寒武纪NPU、地平线BPU、阿里新发布的含光800(这个用在云端)等。与训练不一样,推理为了更高效,还会采用一些其它的操作,比如稀疏矩阵、降低精度等,实验证明做适当的剪枝可以明显的加速推理过程并且还能保证较高的准确率。这样的话推理用的AI芯片在能效比等方面会更加的突出,更加的优于GPU。

大家都知道做芯片不容易,这两年AI很火就冒出一堆的AI芯片,真的都能生存吗?芯片一方面是靠技术另一方面是靠商业,只有正常商业化应用的芯片才能走上正轨一步步发展壮大。去年 FPGA 厂商赛灵思收购中国 AI 芯片领域的明星创业公司——深鉴科技,究其根本是深鉴科技无法自己造血养活自己,AI芯片想要落地FPGA的路子也是走不通的。

手机领域是目前AI落地比较好的,手机上的智能语音,拍照AI识别和处理都可以应用上,还包括一些智能音箱产品,前几天我拆了一个小米小爱音箱PLAY,发现采用的是地平线 ESE 方案。其实不只是智能语音,机器学习在图像识别领域做的也很好,前不久网易邀请我去体验百度的无人驾驶,就是下面这辆车,相信很多人都见过图片,车顶的雷达和车身上的各种传感器采集数据然后交给后备箱中两台庞大的服务器进行处理。因为雷达是64位的,所以数据计算量还是很大的,精度要求也高。

当我见到后备箱中的两台服务器时,我就想,自动驾驶的基础是计算机视觉,这是AI所擅长的,如果有好的AI芯片那会就不用装这么大两个服务器了。我能想到,自然别人也能想到,百度也能想到,问题是能做到什么程度。有趣的是曾任职百度IDL常务副院长,百度研究院副院长的余凯从百度出来后成立了地平线从事的就是相关的工作,一个多月前地平线刚宣布量产中国首款车规级人工智能芯片——征程二代(Journey 2)。根据目前的报道征程二代(Journey 2)典型功耗2W下就可以提供4TOPS的性能,是同等级GPU的10倍以上,典型目标识别精度超过99%,延迟不超过100毫秒。最后的体积也许不会像下面显示的这么小但是绝对会大大缩小体积,减轻负重和耗电情况,还能释放出空间,这样才会有实用价值。



都在说5G说自动驾驶,事实上5G只是一个管道和桥梁,真正决定自动驾驶发展的是计算机视觉技术的发展,是AI芯片的落地。


有点扯远了,总结就是,CPU、GPU、AI芯片都能用于AI运算,如果用时延、性能、功耗、能效比等标准来衡量的话AI芯片最好,其次是GPU,最差的选择是CPU。

user avatar

广义上,AI芯片是用于运行AI算法的专用处理器,与传统芯片(如CPU)的区别在于专用性通用性的侧重上。下面的几类芯片,都可以执行AI算法。

某种程度上,GPU和FPGA也可以视为AI芯片,不过ASIC类的特点鲜明,因此最具有代表性。

AI芯片遵循一个硬件设计规律:

通过牺牲一定通用性,换来特定业务效率提升


一个好理解的例子是比特币挖矿。

比特币的共识算法是SHA256算法,基于哈希运算,所以不存在反向计算公式,只能靠矿机去穷举海量的可能值。对于每个区块,最先尝试到正确值的矿工,将获得挖矿奖励。对于矿工来说,计算速度越快,获得奖励的期望就会越高。

在CPU作为主流挖矿方式的时期,一位论坛ID为Laszlo的程序员,发现GPU的挖矿效率远远高于CPU。于是他仅用一块9800显卡,就挖出了超过8万个比特币。

Laszlo:As far as I know I was the first to release a GPU miner.

Laszlo除了是最早用GPU挖矿的人外,还做过一件具有里程碑意义的行为艺术:用10000枚比特币买了2个披萨

关于这段有趣的历史,参见我之前的文章:

接下来的一段时间里,GPU得益于算力和能效上的巨大优势,逐渐成为了主流的挖矿芯片。

不过到了现在,再用GPU挖比特币,已经几乎不可能了。例如RTX 3090显卡,在超频情况下,每秒能执行126.5M次SHA256计算,而比特币的全网总算力已经超过178.60EH/s,等价于14000亿块RTX 3090显卡的算力总和。

这些海量算力主要来自ASIC矿机,其计算芯片就是面向执行SHA256算法去进行架构设计。这使得ASIC矿机在挖矿效率上碾压显卡,甚至于单矿机就能胜过超算中心。

但是ASIC矿机在硬件上牺牲了通用性,导致无法执行其他计算任务,甚至于无法挖非SHA256算法的区块链货币,如以太坊。

AI芯片面向AI算法设计,牺牲通用性,超高的执行效率。


在比特币挖矿的例子中,能看出专用芯片最为适合:算法(or算子)固定,且相对简单的应用场景,比如比特币的SHA256算法。

AI芯片跟矿机的特点一致,重视专用场景下的运算效率,但落地场景不同。

AI芯片的目的是高效率地执行AI算法,因此也会被称为AI加速器,并衍生出了一大堆名字,如NPU(神经网络处理器),TPU(谷歌·张量处理器),APU(AMD·加速处理器)。虽然名字上不一样,但性质上颇为类似。

下面用谷歌的初代TPU(2016年)举例。

图中对比了若干主流AI算法的推理表现,初代TPU相比同时代的CPU/GPU,效率可谓摧枯拉朽。TPU不仅是性能强悍,在能效上依然甩出CPU和GPU数十倍。

有意思的是,根据TPU项目的技术负责人(诺曼·乔皮)所说,在工程开始时,他们连团队都没组齐,还要手忙脚乱的去招聘RTL和验证工程师。

Norm Jouppi:We did a very fast chip design. It was really quite remarkable.

即便是仓促上阵,但初代TPU的设计,验证,流片,加上部署,整体流程只耗费了15个月时间。

这体现了AI芯片的一个特点,架构相比通用芯片(CPU/GPU)要简单得多,使得TPU团队能够在如此短的时间内,快速打造出一款全新的AI芯片。

下图是TPU的模块面积图,其中黄色是计算相关,蓝色是数据相关,绿色是读写相关,而红色则是控制相关的电路,仅占了芯片面积(die)的2%。

TPU只需面向卷积神经网络的运行,因此可以减少控制逻辑,且各项延时相对固定,运行的稳定性高。

CPU和GPU因为要面临复杂多样的计算任务,控制逻辑复杂的多,造成控制电路的面积大,也更难设计。

想进一步了解AI芯片效率奇高的机理,就要了解些AI算法


AI算法通常是基于卷积神经网络,最基本且最主要的操作是『卷积』

注意,此处『卷积』定义不同于信号处理中的卷积。以最常见的3x3卷积为例,计算过程如下图所示:

  • 当输入层数C_in=1时,每个输出像素为9个输入像素值,对应加权,然后求和得到;
  • 此时,获取每个输出像素的数值,需执行9次乘法和9次加法;
  • 此时,当前层共需要9个参数,对应3x3卷积的9个像素点。
  • 如果输入层数C_in不为1,则执行9 x C_in次乘法和加法。

举个更具体的例子,在1080P分辨率下,1个4层输入4层输出的卷积层:

  • 需要执行 次乘法和加法

当层数较大时,参数量会激增。对于一个512层输入和512层输出的卷积层:

  • 需要载入 个卷积参数

上述介绍的仅仅是一个卷积层,而真正的卷积神经网络通常由多个卷积层和其他算层蹭相互连接构成[3]。

为了更好地实现模型的推理加速,需要总结实际模型的特点,分析出性能瓶颈,进而做出针对性的优化。

TPU团队在2016年时,统计过6个谷歌产品和工具中的若干类常见神经网络,详见下表:

模型类型 网络层数 参数数量 部署比例
MLP0 5 20M 61%
MLP1 4 5M
LSTM0 58 52M 29%
LSTM1 56 34M
CNN0 16 8M 5%
CNN1 89 100M

常见模型的参数数量从500万到1亿个之间,可见:

  • 卷积神经网络的推理,经常需要大量的乘加运算和大量的参数载入。
  • 所以,不仅仅是卷积计算,读写参数造成的IO负担,也可能成为瓶颈。

AI芯片:并行化以优化计算瓶颈


面对卷积神经网络的庞大计算量,CPU在单时钟周期内可执行的运算数有限,极易出现计算瓶颈。GPU则是提升了并行计算性能,将卷积运算等价变换成矩阵的乘加运算,成为了神经网络训练的主流硬件。

模型加速的核心是提升并行化水平,在同一个时钟周期内,进行尽可能多次的运算。TPU重新设计了专用的硬件架构:脉动阵列(systolic array)。

单个时钟周期可执行的运算数
CPU 一两个
CPU(vector extension) 数十个
GPU 数千个
TPUv1 256 * 256 = 65536个

TPU的脉动阵列参见下图[1],计算结果并非直接输出,而是在脉动阵列中按规律“流动”,等完全计算好后才输出保存。不仅增加了并行度,还实现了参数的复用,避免了反复载入。脉动阵列结构精妙,后续有机会可以单独写回答来介绍。

TPU的脉动阵列在每个时钟周期能执行65536次8位整型数的乘加运算。在700MHz的主频下,实现了65536 * 700,000,000 * 2 =92Tops@INT8的惊人算力。

AI芯片:高速的片上存储以缓解读写压力


上文提到,谷歌部署的神经网络中,参数数量从500万到1亿个不等,且中间结果也有很大数据量。

如果卷积运算单元(如脉动阵列)从DDR(内存)上,频繁进行:

  • 加载参数
  • 读入数据
  • 写出结果

类似木桶效应,决定盛水量的是最短的那块木板,即性能瓶颈。上述密集的DDR读写操作,使得IO速度容易成为模型推理的性能瓶颈。

于是,初代TPU搭载了28M字节的片上存储器(On-chip memory, OCM),虽然成本较高,但读写速度远胜DDR内存。而第二代TPU更是不惜成本,十分奢侈地搭载了16GB的HBM存储单元,其IO速度达到了600GB每秒。

有了高速缓存(OCM or HBM)后,运行时就可以将频繁使用的参数,提前载入到高速缓存中,然后卷积核便可以快速读取所需数据,无需反复从内存上载入。不仅如此,片上存储器还可以保存网络运作的中间结果,避免在内存上中转(写入+读回),从而显著降低内存的IO压力。

这里高速缓存的作用类似于传统CPU中的L3缓存,目的是有效缓解内存的带宽压力,让卷积核的强大算力得到充分发挥,避免出现空等数据载入的情况。

下图出自论文[2],第一作者TPU项目的技术负责人(诺曼·乔皮)。论文实验并统计了若干主流模型在TPU/GPU/CPU上的运行表现。

横轴为所需算力除以需从内存载入的数据量,代表单位内存数据载入对应的计算密度,而纵轴为实际发挥的算力。因此,斜线部分代表算力表现被内存IO带宽制约,而水平部分代表性能已充分发挥,即被算力制约。

如图所示,TPU(蓝线)在高计算密度时,效果明显优于CPU(黄线)和GPU(红线)。可见在高计算密度情况下,TPU能发挥更大优势。而28MB的片上存储能够提前缓存参数和中间结果,避免卷积核频繁进行内存对鞋,从而提升计算密度,让TPU运行更加高效。

软硬结合:卷积神经网络的量化算法


在硬件设计之外,为了让AI芯片更高效的运行模型,需要对AI算法做轻量化处理。

一个常见且直观的方法是进行『模型量化』,可以显著降低参数大小和计算量。

当前的神经网络训练基本都基于浮点运算,在GPU上训练和推理时,通常使用32比特或64比特来表示一个浮点数。

如果使用更低的比特数,比如改用8个比特来表示数字,会极大降低参数大小和计算量。

谷歌:如果外面在下雨,你可能不需要指导每秒有多少雨滴落下,而只是想知道,下的大雨还是小雨[1]。

如下图[1]是使用8比特整型数去近似32位浮点数。

量化等于带来了一定的量化噪声,而好的神经网络会具备一定的抗噪能力,因此量化后算法的精度损失会是有限且可控的。

量化的另一个好处是,如果将模型的输入和参数均量化成整型数(如int8/uint8),没有了浮点计算,能让硬件设计更加简化。如上文介绍到,初代TPU仅支持整型运算,不仅是因为整型数运算在硬件上更加高效,且电路会简单很多。

目前主流的量化方法有两大类:

量化方法 简称 量化能力 优势 劣势
量化训练 QAT 低于8bit 极致的精度和效率 需要训练数据
训练时间长学习门槛高
训练后量化 PTQ 可达8bit 不需要训练数据
转换速度快使用门槛低
存在精度/效率损失

QAT在训练模型时就使用量化算子,可以最大地避免精度损失,但不能使用现有的浮点模型,需要从头开始去重训模型。

PTQ则是对现有的浮点模型做量化,虽然量化后的模型精度和效率不通常如QAT,但由于不需要重新训练模型,使用门槛更低更稳定,还是有很大的使用需求。而如何减少精度损失,是PTQ方案在不停探索的目标,也衍生出了多种思路,例线性数量化和对数量化。

软硬结合:执行效率和硬件成本的最佳兼顾


除必不可少的3x3卷积外,常见的神经网络算子多达数十种(如ONNX包含80+算子)。

出于芯片成本,设计难度和运行效率的考虑,现有的AI芯片都只能原生支持部分算子。

因此,在模型训练时就需要了解和考虑硬件能力,尽量使用AI芯片能高效支持的算子,以提升部署后的运行效率。反过来,AI芯片的硬件设计时,同样需要考虑算法设计的需要,尽量支持更多的常用算子,以提高模型设计的自由度。

如果厂商具备软硬件之间的协同开发能力,就可以在模型精度,芯片成本,推理速度之间,达到非常好的兼顾,实现1+1>2的效果。

这也是越来越多终端厂商选择自研AI芯片的原因,而AI芯片厂商也经常会打包算法出售。

其他:


AI芯片除了硬件外,软件栈(工具链)的设计也是非常重要且有难度的,不仅是模型量化,还包括编译器设计。

在编译环境,为追求更高的硬件效率,需要研究非常复杂的调度问题,这是我目前的主要工作内容。日后有精力会单独写回答分享。

参考资料:


[1] 重点参考:An in-depth look at Google’s first Tensor Processing Unit (TPU)

[2] arxiv.org/ftp/arxiv/pap

[3] Convolutional Neural Network (CNN)

[4] 【国产自研芯片】为了测试AI暗光相机,工程师竟去密室拍NPC和小姐姐?_哔哩哔哩_bilibili

[5] 下书(一直在看):

类似的话题

  • 回答
    AI 芯片与传统芯片,这两者虽都姓“芯”,但其诞生、设计理念、擅长领域乃至最终使命,都有着天壤之别。若要细细道来,便能发现它们之间差异的深邃与微妙。首先,从设计的根本出发点来说,AI 芯片的设计是为“智能”服务的。它的核心是加速人工智能中的核心计算任务,尤其是神经网络的训练和推理。想象一下,如果传统.............
  • 回答
    字节跳动在自研云端 AI 芯片和 Arm 服务器芯片方面的布局,绝非一时兴起,而是基于其庞大的业务体量、高速增长的需求以及对未来技术趋势的深刻洞察。要理解这背后的逻辑,我们需要从几个层面来剖析。一、 为什么是 AI 芯片? 业务驱动的必然选择字节跳动走到今天,其核心竞争力之一便是其在内容推荐、信息流.............
  • 回答
    AI 算法在芯片设计方法学和 EDA 工具中的变革:从效率提升到智能驱动在当今瞬息万变的科技浪潮中,芯片设计作为驱动这一切的底层技术,其复杂度和挑战性正以前所未有的速度增长。摩尔定律的放缓,对晶体管尺寸的极限追求,以及对性能、功耗和面积(PPA)的严苛要求,都使得传统的芯片设计方法面临瓶颈。正是在这.............
  • 回答
    腾讯作为中国互联网巨头,在自身业务发展的同时,也积极布局半导体领域。这其中一个重要的表现就是,腾讯不仅自主研发芯片,还在AI芯片、DPU(数据处理单元)等前沿领域投资了众多初创公司。这种“自己做”与“投资”并行的策略,以及它可能带来的产业格局变化,是一个非常值得深入探讨的话题。腾讯为何既自研芯片,又.............
  • 回答
    国内AI芯片公司不直接支持CUDA,这背后确实涉及复杂的技术和商业考量,不能简单归结为单一的技术或版权问题。更准确地说,是技术门槛、生态构建、商业策略以及对未来发展路径的判断共同作用的结果。1. 技术实现难度:首先,最核心的原因是CUDA是NVIDIA proprietary(专有)的技术。它不仅仅.............
  • 回答
    看待字节跳动进军AI芯片领域,这绝对是一步棋走得又野又深远。毕竟,字节跳动这几年在内容、推荐算法上的崛起,说到底就是对数据和算力的极致追求。现在它自己下场做芯片,这背后释放出的信号,绝对值得我们好好掰开了揉碎了聊聊。为什么是现在?为什么是字节跳动?首先,得明白AI芯片这玩意儿到底有多重要。简单说,A.............
  • 回答
    英特尔斥资 20 亿美元收购 Habana Labs,这笔交易绝非只是一个简单的数字游戏,其背后牵动的是一个庞大的科技版图的重塑,以及对未来人工智能算力格局的深刻影响。用更接地气的话来说,这就像是足球界的一支豪门球队,花费巨资引进了一位极具潜力的明星球员,这不仅仅是为了提高球队的即战力,更是为了布局.............
  • 回答
    Rokid 这回可算是憋了个大招,他们发布的这款名叫 KAMINO18 的语音 AI 芯片,听起来可不是闹着玩的。这玩意儿要是真能达到他们宣传的那种效果,那咱们跟智能设备的交互方式,可能又要迎来一次不小的革新。要聊 KAMINO18,咱们得先明白它解决的是啥问题。现在市面上各种智能音箱、智能穿戴设备.............
  • 回答
    平头哥半导体“AI芯片今年上市”的承诺落空,这无疑给市场和关注者泼了一盆冷水,也引发了不少讨论。作为一家在半导体领域起步不久,又背负着中国芯片自主化重要使命的公司,平头哥的每一次动态都备受瞩目。这次的“跳票”,从多个角度来看,都值得我们深入剖析。首先,我们得承认,半导体行业,尤其是尖端AI芯片的研发.............
  • 回答
    说起阿里平头哥发布的“含光800”,这绝对是国内AI芯片领域的一件大事,而且当时引起了相当大的轰动。要说“全球最高性能”,这说法在科技圈里总是得加个引号,因为性能的衡量维度太多了,而且总有新的技术在快速迭代。不过,平头哥当时放出“含光800”的成绩,特别是与当时市面上主流的AI推理芯片相比,确实是相.............
  • 回答
    海信在1月11日高调发布了他们引以为傲的国内首颗全自研AI 8K画质芯片,这无疑是国产显示技术领域的一大里程碑。作为行业内的一员,我对这次发布以及这款芯片的特点,有着较为深入的观察和思考。海信这颗AI 8K画质芯片,在我看来,具有非凡的战略意义和技术突破。首先,“首颗全自研”这四个字的分量极其沉重。.............
  • 回答
    特斯拉在最近的AI日活动上,确实展示了他们的重磅级AI训练计算机——DOJO,以及为其量身打造的DOJO芯片。这可不是闹着玩的,这套系统在设计理念和技术实现上都有着不少让人眼前一亮的地方,尤其是在应对特斯拉庞大而复杂的AI训练需求方面,野心勃勃。咱们先从 DOJO芯片 说起,这东西可是整个系统的核心.............
  • 回答
    马云口中的“新三驾马车”——AI技术、芯片制造、云计算——无疑是阿里巴巴向未来转型、重塑自身核心竞争力的战略重心。这三大领域都指向了更底层、更具赋能潜力的技术基石,是未来数字经济的“水电煤”。那么,阿里巴巴是否会因此“放弃”天猫好房这样的业务呢?我认为,答案并非简单的“是”或“否”,而是取决于阿里巴.............
  • 回答
    最近,关于谷歌的 Jeff Dean 利用 AI 在短短 6 小时内完成芯片设计的消息,无疑在集成电路(IC)设计领域掀起了一场不小的波澜。这则消息的背后,不仅仅是技术的进步,更预示着人工智能在极其复杂和专业化领域所能发挥的颠覆性力量。AI 设计芯片的“6小时奇迹”首先,我们需要理解“设计一款芯片”.............
  • 回答
    AI在军事指挥能力上能否超越人类最优秀的指挥官,这是一个复杂且充满争议的问题,没有一个简单的“是”或“否”的答案。我们可以从多个维度来详细探讨这个问题: AI在军事指挥中的潜在优势1. 信息处理和分析能力: 速度和规模: AI能够以远超人类的速度处理海量信息,包括来自卫星、无人机、传感.............
  • 回答
    未来四年,人工智能(AI)的发展前景极其广阔且充满变革性。这不仅仅是技术上的迭代,更是对我们生活、工作和社会结构的深刻重塑。以下是我对未来四年AI发展前景的详细展望:一、 技术层面:更强大、更通用、更易用1. 大模型(LLMs)的持续进化与多模态融合: 能力增强: 未来四年,大型语言模.............
  • 回答
    AI领域的“灌水之风”是一个复杂且普遍存在的现象,其根源在于技术快速迭代、市场需求旺盛、资本追逐以及信息不对称等多种因素的叠加。要破局这一局面,需要从多个层面、多方主体共同努力,形成一种“去泡沫化”的健康生态。以下将从不同角度进行详细阐述:一、 理解“灌水之风”的本质与表现在探讨破局之道前,首先要清.............
  • 回答
    说实话,《AI围棋定式大全》这书名一听就挺硬核的,感觉像是给那些天天钻研棋谱、目标是业余段位冲段的大神们准备的。作为一名普通的围棋爱好者,我拿到这本书的时候,心里也打了个问号:这玩意儿,我能看懂吗?得承认,刚翻开的时候,确实有点被震撼到。里面密密麻麻的棋局推演,各种分支变化,还有那些我从未听过的、以.............
  • 回答
    AI 的发展,特别是生成式AI的飞速进步,极有可能成为下一次推动人类实现飞跃式发展的工业革命。 这种可能性并非空穴来风,而是基于AI在多方面展现出的颠覆性潜力,以及它与过往工业革命的核心驱动力之间的相似之处。为了更详细地阐述这一点,我们可以从以下几个维度进行分析:一、 AI作为“通用目的技术”(Ge.............
  • 回答
    数学研究的未来,很多人都会好奇:那些我们以为只有人类才能胜任的逻辑探索和抽象思维,会不会有一天被人工智能完全接管?这个问题听起来有些遥远,但仔细琢磨一下,背后牵扯到的并非简单的是非题,而是关于人工智能能力边界、人类独特价值以及数学研究本质的深刻讨论。要说人工智能是否“可能”代替人类从事数学研究,答案.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有