GPT-3 [1] 到底花了多少钱?这可能永远是个谜。
在 Open AI 官网上并没有发现对此的说明。
通过追溯信源,的确发现GPT-3模型的训练开支有两种(估算)说法[2]:
其中 460万美元训练开支的估算过程如下:
OpenAI最近发布了GPT-3,这是有史以来最大的语言模型。
GPT-3拥有1750亿个参数,即使使用 市场上价格最低的GPU云 ,也需要355年的时间和460万美元的培训费用。使用 Lambda GPU实例 为例,Tesla V100定价为 $1.50 /小时
延伸阅读:
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有