AnyBackup
性能爆表
AnyShare
如何购买
我已是Anyshare 客户
AnyRobot
如何购买
购买 AnyRobot 订阅服务
我已是 AnyRobot 客户
一对一在线咨询
我是 AnyRobot 新客户
一对一在线咨询
AnyDATA

爱数博客

全部 AnyBackup AnyShare AnyRobot AnyDATA AnyFabric

Able 说 AI 丨大模型是怎样炼成的?

2023-12-11 593 0
大家好,今天 Able 邀请到了爱数 AnyShare 研发线&人工智能研究院负责人许鹏,和大家一起探讨下大型语言模型是怎样炼成的?
通用大模型是一个可以被预先训练
并在各种任务上微调的深度神经网络模型
其基本思想是使用海量数据预先训练
一个具有强大表征能力的深度神经网络
然后将其应用于各种任务中
从而减少每个任务所需的训练数据
和计算资源
当前大模型已经在很多领域产品化落地
ChatGPT 就是代表性产品
那么大模型是如何训练出来的?
会经历哪些阶段?
点击视频,一探究竟!
大型语言模型的训练步骤
l 选择合适的架构:在模型训练中,我们首先选择合适的架构,如 Transformer 架构,这是模型的基础。
l Pretrain 阶段:接下来是预训练阶段,我们使用大量的高质量通识语料进行训练,然后用少量的高质量领域语料进一步训练。这个阶段通常时间长、计算量大。
l Instruct Finetune 阶段:然后是指令微调阶段,这里我们使用少量的高质量指令语料进行微调,时间相对较短。
l Human Feedback 阶段:最后是人类反馈阶段,我们持续根据人类的反馈来训练奖励模型,并依此进行强化学习训练。

注意事项
预训练和对齐:一般来说,"预训练"阶段指的是 pretrain 阶段,而"对齐"阶段则指的是 instruct finetune 和 human feedback 阶段。在这里,“对齐税”是一种必要的tradeoff。
ChatGPT 的身份:需要明确的是,ChatGPT 严格意义上并不是 OpenAI 的一个独立产品,而是获取人类反馈的一种方式。
通识与专业知识:对于爱数产品来说,短期内可能不会涉及到通识的 pretrain 阶段,而是更专注于特定任务的训练。

希望今天的分享能让你对大语言模型的训练过程有更加深入的了解。

更多《Able 说 AI》内容,详情点击:https://www.aishu.cn/cn/blogs?product=33 

请就本文对您的益处进行评级:

标签

Able说AI

相关文章

热门标签

版本发布 在线教学

拨打400

免费销售咨询热线

400 8216055

7*24 小时免费售后服务热线

400 880 1569

购买咨询

购买咨询

售后服务

售后服务

返回顶部

为了给您提供更优质的服务,请您先完善以下信息:
确认提交

扫码关注

爱数技术支持中心公众号