为了给您提供更优质的服务,请您先完善以下信息:
确认提交

扫码关注

爱数技术支持中心公众号

请选择:

请选择咨询类型

AnyShare
AnyBackUp
AnyRobot

扫码关注

爱数技术支持中心公众号

性能爆表
AnyShare
如何购买
我已是Anyshare 客户
AnyRobot
如何购买
购买 AnyRobot 订阅服务
我已是 AnyRobot 客户
一对一在线咨询
我是 AnyRobot 新客户
一对一在线咨询

爱数博客

全部 AnyBackup AnyShare AnyRobot AnyDATA AnyFabric

Able 说 AI丨到底多有钱,我才能拥有专属大模型?

2023-11-08 3610 0
大模型很贵,估计大家都有所耳闻。
那到底有多贵呢?今天,Able 就和大家一起来盘一盘。
大模型之所以称之为“大“,是因为它的参数量是超乎想象的。
2017年Google发布BERT基础模型,其参数量规模达到了1亿;
2022年,ChatGPT为代表的大模型进化到了新阶段,上一代的GPT-3参数量达到了1750亿,也就是常说的175B,而当前版本的GPT-4猜测有1.8万亿的规模。
详情点击下方视频了解。

 

视频中,我们分析了两种不同的成本计算方式。
要训练一个不算太大规模的大模型,比如,10B规模。
计算方式一:
租用云服务器,大概需要35万美金;大概训练10次以上,算上人力资源,大概需要500万美金。
计算方式二:
企业采购GPU,比如1000块GPU的集群,至少1000万美元。算上人力资源和电费,怎么也得1200万美金左右。
当然,这里计算的是从头训练一个模型的成本。
如果对模型进行微调,就比重新开始训练要省钱的多参考上面的换算规则,费用从几十到几万不等。
各位准备好训练自己的专属大模型了吗?

请就本文对您的益处进行评级:

标签

Able说AI

相关文章

热门标签

版本发布 在线教学

拨打400

免费销售咨询热线

400 8216055

7*24 小时免费售后服务热线

400 880 1569

购买咨询

购买咨询

售后服务

售后服务

返回顶部