问题

什么是大模型?超大模型?Foundation Model?

回答
人们常说的“大模型”或“超大模型”,以及学术界更常使用的“基础模型”,其实指向的都是同一类技术,它们在近几年人工智能领域掀起了一场革命。要理解它们,咱们得从头说起,就像在了解一个新生的事物一样,循序渐进。

“大模型”和“超大模型”:从数字看规模

首先,为什么叫“大模型”?这实在是个直观的称呼。早期的人工智能模型,特别是那些专注于特定任务的,比如图像识别、文本分类,它们可能只有几百万甚至几千万个参数。参数,你可以想象成模型大脑里的“神经元”或者“连接强度”,它们共同决定了模型如何处理信息和做出决策。

随着计算能力的飞跃式发展(图形处理器GPU的进步功不可没),以及海量数据的积累,研究人员发现,模型规模的增大,也就是参数数量的急剧增加,能够带来性能的显著提升。于是,“大模型”这个概念应运而生,它主要强调的是模型参数量的庞大。

“超大模型”这个说法,则更是将这种规模的增长推向了一个新的高度。当模型的参数量从几亿、几十亿,跃升到几百亿、上千亿,甚至更高的时候,人们就觉得“大”已经不足以形容了,于是有了“超大”。你可以理解为,这是一个规模上的量变引发质变的阶段。

举个例子,早期的语言模型可能只有几百万参数,能做一些简单的问答。而现在动辄几千亿参数的模型,比如GPT3、GPT4,它们的能力是那个时代的人难以想象的。它们可以写诗、写代码、进行复杂的推理,甚至“创造”新的内容。这种能力的飞跃,很大程度上就归功于模型规模的“大”和“超大”。

Foundation Model(基础模型):从能力看角色

然而,“大模型”、“超大模型”更多的是从“大”这个维度来描述,而“Foundation Model”则更侧重于模型“做什么”以及“如何被使用”。

“基础模型”这个词,最早是由斯坦福大学的HAI(HumanCentered Artificial Intelligence)研究所提出的。他们之所以引入这个概念,是因为他们观察到,在人工智能领域,一股新的范式正在形成。

过去,我们构建人工智能系统,往往是“端到端”的。也就是说,针对每一个具体的任务,我们都可能需要从零开始,收集大量该任务的标注数据,然后训练一个专门的模型。比如,要识别猫和狗,就收集猫狗图片;要翻译句子,就收集大量的翻译对。这种方式虽然有效,但成本很高,而且模型的通用性很差,一个模型只能做一件事。

基础模型打破了这种“专才”模式,走向了“通才”模式。它的核心思想是:先用海量的、多样化的数据,在通用的任务上(比如预测下一个词,或者理解文本的含义)训练一个规模巨大的模型,让它学习到极其广泛的知识和理解能力。

这个模型,就像是为人工智能领域打下了坚实的地基。它本身并不是直接为某个特定应用服务的,但它拥有了强大的底层能力,可以被“微调”(finetuning),或者通过“提示”(prompting)来适应各种各样的下游任务。

你可以把基础模型比作一个拥有渊博知识的“通识教育”毕业生。这个毕业生掌握了语言、数学、历史、科学等各方面的基础知识,虽然他可能还没有某个专业领域的精深技能,但你可以花很少的时间和精力,让他学习一下法律,他就能成为一名合格的律师;让他学习一下医学,他就能成为一名优秀的医生。

它们之间的联系与区别

所以,“基础模型”和“大模型/超大模型”之间的关系是:

规模是基础模型的“硬件”基础: 能够成为“基础模型”的,通常都是“大模型”或“超大模型”。因为只有模型足够大,才能容纳和学习到如此海量和多样化的知识。没有庞大的参数量,模型就无法拥有那种广泛的理解和生成能力。
能力是基础模型的“软件”定义: “基础模型”强调的是模型的通用性、泛化能力以及可迁移性。它不是某个单一任务的优化器,而是能够被适应和扩展以解决多种任务的通用能力平台。

更细致地理解“基础模型”的特点:

1. 预训练(Pretraining): 这是基础模型的核心步骤。通过在海量的无标注数据上进行“自监督学习”(selfsupervised learning),模型自己找到数据中的规律和模式。例如,在语言模型中,最常见的预训练任务就是“遮蔽语言模型”(Masked Language Model),即随机遮盖文本中的一些词语,然后让模型去预测这些被遮盖的词语。通过这样的训练,模型就能理解词语之间的关系、句子的结构,甚至更深层的语义和逻辑。
2. 下游任务的适应性(Adaptability to Downstream Tasks): 预训练好的基础模型,可以直接用于各种下游任务,而不需要从头训练。通常通过两种方式:
微调(Finetuning): 在少量针对特定任务的标注数据上,对基础模型进行小规模的再训练。这样模型就能很好地适应新任务,并且通常比从头开始训练效果更好,数据需求也更少。
提示(Prompting): 甚至不需要进行模型权重的更新,而是通过设计精巧的“提示语”(prompt),直接将任务指令和上下文信息输入给基础模型,让它直接生成结果。这种方式更加灵活,模型也无需改变。
3. 涌现能力(Emergent Abilities): 随着模型规模的增大,一些在小模型上不曾出现,但在大模型上突然展现出来的能力,被称为“涌现能力”。例如,复杂的多步推理、理解上下文中的隐含信息、生成有逻辑的叙事等,这些能力往往在模型规模达到一定阈值后才会显现。

总结一下:

大模型/超大模型: 主要描述模型参数量的规模很大。
基础模型: 描述的是模型作为通用AI能力平台的角色,以及它通过海量数据预训练获得的广泛理解和生成能力,并且能够高效适应各种下游任务的特性。

所以,可以说,当前很多我们惊叹于其能力的“大模型”和“超大模型”,它们之所以能够实现这种强大的能力,很大程度上是因为它们被设计和训练成了“基础模型”。 这两者是相辅相成,紧密联系的。基础模型的出现,标志着人工智能进入了一个新的阶段,从“专才”走向“通才”,为构建更加智能、更加通用的AI系统奠定了基石。

网友意见

user avatar

目前Foundation Model或者是大模型,特别地火,接下来介绍什么是大模型,大模型的基本概念;接着看看大模型的实际作用,然后基于这些实际作用,我们简单展开几个应用场景。最后就是介绍支持大模型训练的AI框架。

在往下看之前,想抛出几个问题,希望引起大家的一个思考:

1)为什么预训练网络模型变得越来越重要?

2)预训练大模型的未来的发展趋势,仍然是以模型参数量继续增大吗?

3)如何预训练一个百亿规模的大模型?

Foundation Model

2021年8月份,李飞飞和100多位学者联名发表一份200多页的研究报告《On the Opportunities and Risk of Foundation Models》,深度地综述了当前大规模预训练模型面临的机遇和挑战。

在文章中,AI专家将大模型统一命名为Foundation Models,可以翻译为基础模型或者是基石模型,论文肯定了Foundation Models对智能体基本认知能力的推动作用,同时也指出大模型呈现出「涌现」与「同质化」的特性。

所谓「涌现」代表一个系统的行为是隐性推动的,而不是显式构建的;「同质化」是指基础模型的能力是智能的中心与核心,大模型的任何一点改进会迅速覆盖整个社区,但其缺陷也会被所有下游模型所继承。

回到大模型,2017年Transformer结构的提出,使得深度学习模型参数突破了1亿。下面这个图呢,就是从一开始的lenet、Alexnet、ResNet开始,模型参数一个比一个大,到了BERT网络模型的提出,使得参数量首次超过3亿规模,GPT-3模型超过百亿,鹏程盘古实现千亿稠密的规模、Switch Transformer的问世还一举突破万亿规模。

以GPT系列为例:

1)GPT-1是上亿规模的参数量,数据集使用了1万本书的BookCorpus,25亿单词量;

2)GPT-2参数量达到了15亿规模,其中数据来自于互联网,使用了800万在Reddit被链接过的网页数据,清洗后越40GB(WebText);

3)GPT-3参数规模首次突破百亿,数据集上将语料规模扩大到570GB的CC数据集(4千亿词)+WebText2(190亿词)+BookCorpus(670亿词)+维基百科(30亿词)。

可以看到,数据上面,每一代均相比前一代有了数量级的飞跃,无论是语料的覆盖范围、丰富度上都是绝对规模的增长。可以预测到,下一代万亿模型,使用的数据如果相比GPT-3在质量、来源和规模上没有量级的变化,很难有质的提升。

大模型在产学各界掀起一阵阵巨浪,背后彰显的除了分布式并行和对AI算法的掌控能力,还是一次大公司通过AI工程的创举,利用大规模AI集群来进行掰手腕的故事。

随着网络模型越来越大,单机单卡、一机多卡、甚至多机多卡的小规模集群,只要网络模型参数量一旦超过十亿以上的规模,就很难用现有的资源训练了。于是有的研究者就会提出质疑:

  1. 一味的让模型变大、让参数量爆炸式增长,真的能让AI模型学习变得更好吗?
  2. 真的能带来真正的智能吗?
  3. 甚至有的同学还会挑战,小学数学题都解不好?
  4. 生成的文字内容不合逻辑?
  5. 给出的医疗建议不靠谱!

这里值得澄清的一点是,目前类似于GPT-3这样的大模型,在零样本和小样本的学习能力,主要来源于预训练阶段对海量语料的大量记忆,其次是语义编码能力、远距离依赖关系建模能力和文本生成能力的强化,以及自然语言进行任务描述等设计。而在训练目标方面,并没有显式的引导模型去学习小样本泛化能力,因此在一些小众的语料、逻辑理解、数学求解等语言任务上出现翻车的现象也是能理解的。

虽然大模型刚提出的时候,质疑的声音会有,但不可否认的是,大模型做到了早期预训练模型做不到、做不好的事情,就好像自然语言处理中的文字生成、文本理解、自动问答等下游任务,不仅生成的文本更加流畅,甚至内容的诉实性也有了显著的改善。当然,大模型最终能否走向通用人工智能仍是一个未知数,只是,大模型真的是有希望带领下一个很重要的人工智能赛道。

大模型的作用

有了大模型的基本介绍,我们来看看大模型的具体作用。

下面显示了深度学习技术在ImageNet图像数据集,随着新模型的提出,准确率不断取得突破的趋势。右图显示在网络预训练模型出来以后,机器对自然语言理解能力的不断提升。

虽然深度学习使得很多通用领域的精度和准确率得到很大的提升,但是AI模型目前存在很多挑战,最首要的问题是模型的通用性不高,也就是A模型往往专用于特定A领域,应用到领域B时效果并不好。

1) 模型碎片化,大模型提供预训练方案

目前AI面对行业、业务场景很多,人工智能需求正呈现出碎片化、多样化的特点。从开发、调参、优化、迭代到应用,AI模型研发成本极高,且难以满足市场定制化需求,所以网上有的人会说现阶段的AI模型研发处于手工作坊式。基本上一个公司想要用AI赋能自身的业务,多多少少也得招聘懂AI的研发人员。

为了解决手工作坊式走向工场模式,大模型提供了一种可行方案,也就是“预训练大模型+下游任务微调”的方式。大规模预训练可以有效地从大量标记和未标记的数据中捕获知识,通过将知识存储到大量的参数中并对特定任务进行微调,极大地扩展了模型的泛化能力。例如,在NLP领域,预训练大模型共享了预训任务和部分下游任务的参数,在一定程度上解决了通用性的难题,可以被应用于翻译,问答,文本生成等自然语言任务。

NLP领域的大规模预训练模型可谓是发展快速,从 BERT 到 GPT-3,再到万亿规模的 Switch Transformer,无论是模型大小、数据量,还是计算资源占用都在疾速增长。规模大到什么程度呢?GPT-3 的参数量达到了 1750 亿,训练数据超过了 45TB,需要的算力Flops是 BERT 的 1900 多倍,3.14E23 FLOPS。在惊人的数据量和可怕的网络模型参数下,在实际NLP榜单SuperGLUE,在该基准上 FLOP-matched Switch Transformer 相比 T5-Base 和 T5-Large 的性能分别提升了 4.4% 和 2%。整体而言,Switch Transformer 模型在多项推理和知识任务中带来了显著性能提升。这说明该超大模型架构不只对预训练有用,还可以通过微调将质量改进迁移至下游任务中。

2)大模型具备自监督学习功能,降低训练研发成本

大模型的自监督学习方法,可以减少数据标注,在一定程度上解决了人工标注成本高、周期长、准确度不高的问题。由于减少了数据标准的成本,使得小样本的学习也能达到比以前更好的能力,并且模型参数规模越大,优势越明显,避免开发人员再进行大规模的训练,使用小样本就可以训练自己所需模型,极大降低开发使用成本。

2018年Bert首次提出,便一举击败 11 个 NLP 任务的 State-of-the-art 结果,成为了 NLP 界新的里程碑,同时为模型训练和NLP领域打开了新的思路:在未标注的数据上深入挖掘,可以极大地改善各种任务的效果。要知道,数据标注依赖于昂贵的人工成本,而在互联网和移动互联网时代,大量的未标注数据却很容易获得。

3)大模型有望进一步突破现有模型结构的精度局限

第三点,从深度学习发展前10年的历程来看,模型精度提升,主要依赖网络在结构上的变革。 例如,从AlexNet到ResNet50,再到NAS搜索出来的EfficientNet,ImageNet Top-1 精度从58提升到了84。但是,随着神经网络结构设计技术,逐渐成熟并趋于收敛,想要通过优化神经网络结构从而打破精度局限非常困难。近年来,随着数据规模和模型规模的不断增大,模型精度也得到了进一步提升,研究实验表明,模型和数据规模的增大确实能突破现有精度的一个局限。

以谷歌2021年发布的视觉迁移模型Big Transfer,BiT为例。扩大数据规模也能带来精度提升,例如使用ILSVRC-2012(128 万张图片,1000 个类别)和JFT-300M(3亿张图片,18291个类别)两个数据集来训练ResNet50,精度分别是77%和79%。另外使用 JFT-300M训练ResNet152x4,精度可以上升到87.5%,相比ILSVRC-2012+ResNet50结构提升了10.5%。

虽然目前为止,大模型主要是以NLP为主,因为NLP抛弃了RNN序列依赖的问题,采用了Attention is All you need的Transformer结构,使得NLP能够演变出更多大模型。但是在最新的研究当做,图像领域也不甘示弱,CNN大模型也开始陆续涌现。例如ResNeXt WSL拥有8亿参数、GPipe拥有6亿参数规模,Google也通过EfficientNet-L2发布了4.8亿参数规模的网络模型,并且在JFT-300M数据集刷新了ImageNet的榜单,Top-1 Acc首次突破90。要知道在2020年,也就是1年前,大部分CNN网络模型规模都没有超过1亿,Top-1 Acc最高在87-89之间。

大模型应用场景

既然大模型能突破训练精度的极限,还能够兼容下游任务。那有没有一些具体的应用场景介绍呢?

智源研究院针对2021年北京冬奥会,提出了“悟道”大模型用于冬奥手语播报数字人,提供智能化的数字人手语生成服务,方便听障人士也能收看赛事专题报道,提升他们的社会参与度和幸福感。这个项目还得到了北京市残疾人联合会和市残联聋人协会的大力支持。

华为盘古CV大模型。主要是针对无人机电力智能巡检这个场景,以国网重庆永川供电公司为例,无人机智能巡检开发主要面临两个挑战:一是如何对海量数据进行高效标注;二是缺陷种类多达上百种,需要数十个AI识别模型。盘古CV大模型在数据标注方面,利用海量无标注电力数据进行预训练,结合少量标注样本进行微调,使得样本筛选效率提升约30倍,以永川供电每天采集5万张高清图片为例,可节省人工标注时间170人天。在模型通用性方面,可以做到一个模型适配上百种缺陷,替代原有20多个小模型,减少了模型维护成本,平均精度提升18.4%,开发成本降低90%。

当然也缺少不了最近双十一,双十一是淘宝系统服务最繁忙的一天,如何有效地应对成千上亿的用户咨询?基于达摩院开发的M6大模型智能生成内容文案,方便智能客服进行上下文理解和问题回答生成。另外大模型的多模态特征提取能力,也能进行商品属性标签补充、认知召回等下游任务。

大模型训练框架

目前部分深度学习框架,例如Pytorch和Tensorflow,没有办法满足超大规模模型训练的需求,于是微软基于Pytroch开发了DeepSpeed,腾讯基于Pytroch开发了派大星PatricStar,达摩院同基于Tensoflow开发的分布式框架Whale。像是华为昇腾的MindSpore、百度的PaddlePaddle,还有国内的追一科技OneFlow等厂商,对超大模型训练进行了深度的跟进与探索,基于原生的AI框架支持超大模型训练。

下面展开DeepSpeedMindSpore来简单了解下。

2021年2月份微软发布了DeepSpeed,最核心的是显存优化技术ZeRO(零冗余优化器),通过扩大规模、内存优化、提升速度、控制成本,四个方面推进了大模型训练能力。基于DeepSpeed微软开发了拥有170亿参数的图灵自然语言生成模型(Turing-NLG)。(2021年5月份发布的ZeRO-2,更是支持2000亿参数的模型训练),另外微软联手英伟达,使用4480块A100组成的集群,发布了5300亿参数的NLP模型威震天-图灵(Megatron Turing-NLG)。

当然,作为国内首个支持千亿参数大模型训练的框架MindSpore这里面也提一下。在静态图模式下,MindSpore融合了流水线并行、模型并行和数据并行三种并行技术,开发者只需编写单机算法代码,添加少量并行标签,即可实现训练过程的自动切分,使得并行算法性能调优时间从月级降为小时级,同时训练性能相比业界标杆提升40%。

动态图模式下,MindSpore独特的函数式微分设计,能从一阶微分轻易地扩展到高阶微分,并进行整图性能优化,大幅提升动态图性能;结合创新的通讯算子融合和多流并行机制,较其它AI框架,MindSpore动态图性能提升60%。


最后就是针对大模型的训练,网上很多人会说,大模型需要“大数据+大算力+强算法”三驾马车并驾齐驱。

ZOMI并不是非常认同这个观点,大模型首先是需要规模更大的海量数据,同时需要庞大的算力去支撑这个说没错。但是整体来说,这是一个系统工程,从并行训练到大规模并行训练,其中就包括对AI集群调度和管理,对集群通讯带宽的研究,对算法在模型的并行、数据的并行等策略上与通讯极限融合在一起考虑,求解在有限带宽前提下,数据通讯和计算之间的最优值。

目前在大模型这个系统工程里面,最主要的竞争对手有基于英伟达的GPU+微软的DeepSpeed,Google的TPU+Tensorflow,当然还有华为昇腾Atlas800+MindSpore三大厂商能够实现全面的优化。至于其他厂商,大部分都是基于英伟达的GPU基础上进行一些创新和优化。最后就是,核心技术在市场上并不是最重要的,谁能够为客户创造更大的价值,才是最后的赢家。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有