Able 说 AI丨到底多有钱,我才能拥有专属大模型?
大模型很贵,估计大家都有所耳闻。
那到底有多贵呢?今天,Able 就和大家一起来盘一盘。
大模型之所以称之为“大“,是因为它的参数量是超乎想象的。
2017年Google发布BERT基础模型,其参数量规模达到了1亿;
2022年,ChatGPT为代表的大模型进化到了新阶段,上一代的GPT-3参数量达到了1750亿,也就是常说的175B,而当前版本的GPT-4猜测有1.8万亿的规模。
详情点击下方视频了解。
视频中,我们分析了两种不同的成本计算方式。
要训练一个不算太大规模的大模型,比如,10B规模。
计算方式一:
租用云服务器,大概需要35万美金;大概训练10次以上,算上人力资源,大概需要500万美金。
计算方式二:
企业采购GPU,比如1000块GPU的集群,至少1000万美元。算上人力资源和电费,怎么也得1200万美金左右。
当然,这里计算的是从头训练一个模型的成本。
如果对模型进行微调,就比重新开始训练要省钱的多参考上面的换算规则,费用从几十到几万不等。
各位准备好训练自己的专属大模型了吗?
那到底有多贵呢?今天,Able 就和大家一起来盘一盘。
大模型之所以称之为“大“,是因为它的参数量是超乎想象的。
2017年Google发布BERT基础模型,其参数量规模达到了1亿;
2022年,ChatGPT为代表的大模型进化到了新阶段,上一代的GPT-3参数量达到了1750亿,也就是常说的175B,而当前版本的GPT-4猜测有1.8万亿的规模。
详情点击下方视频了解。
视频中,我们分析了两种不同的成本计算方式。
要训练一个不算太大规模的大模型,比如,10B规模。
计算方式一:
租用云服务器,大概需要35万美金;大概训练10次以上,算上人力资源,大概需要500万美金。
计算方式二:
企业采购GPU,比如1000块GPU的集群,至少1000万美元。算上人力资源和电费,怎么也得1200万美金左右。
当然,这里计算的是从头训练一个模型的成本。
如果对模型进行微调,就比重新开始训练要省钱的多参考上面的换算规则,费用从几十到几万不等。
各位准备好训练自己的专属大模型了吗?
赞
点个赞吧!
请就本文对您的益处进行评级: