为了给您提供更优质的服务,请您先完善以下信息:
确认提交

扫码关注

爱数技术支持中心公众号

请选择:

请选择咨询类型

AnyShare
AnyBackUp
AnyRobot

扫码关注

爱数技术支持中心公众号

contact us

提交成功!

我们将在 24 小时之内联系你。

性能爆表
AnyShare
如何购买
我已是Anyshare 客户
AnyRobot
如何购买
购买 AnyRobot 订阅服务
我已是 AnyRobot 客户
一对一在线咨询
我是 AnyRobot 新客户
一对一在线咨询

爱数博客

全部 AnyBackup AnyShare AnyRobot AnyDATA AnyFabric

Able 说 AI 丨大模型是怎样炼成的?

2023-12-11 892 0
大家好,今天 Able 邀请到了爱数 AnyShare 研发线&人工智能研究院负责人许鹏,和大家一起探讨下大型语言模型是怎样炼成的?
通用大模型是一个可以被预先训练
并在各种任务上微调的深度神经网络模型
其基本思想是使用海量数据预先训练
一个具有强大表征能力的深度神经网络
然后将其应用于各种任务中
从而减少每个任务所需的训练数据
和计算资源
当前大模型已经在很多领域产品化落地
ChatGPT 就是代表性产品
那么大模型是如何训练出来的?
会经历哪些阶段?
点击视频,一探究竟!
大型语言模型的训练步骤
l 选择合适的架构:在模型训练中,我们首先选择合适的架构,如 Transformer 架构,这是模型的基础。
l Pretrain 阶段:接下来是预训练阶段,我们使用大量的高质量通识语料进行训练,然后用少量的高质量领域语料进一步训练。这个阶段通常时间长、计算量大。
l Instruct Finetune 阶段:然后是指令微调阶段,这里我们使用少量的高质量指令语料进行微调,时间相对较短。
l Human Feedback 阶段:最后是人类反馈阶段,我们持续根据人类的反馈来训练奖励模型,并依此进行强化学习训练。

注意事项
预训练和对齐:一般来说,"预训练"阶段指的是 pretrain 阶段,而"对齐"阶段则指的是 instruct finetune 和 human feedback 阶段。在这里,“对齐税”是一种必要的tradeoff。
ChatGPT 的身份:需要明确的是,ChatGPT 严格意义上并不是 OpenAI 的一个独立产品,而是获取人类反馈的一种方式。
通识与专业知识:对于爱数产品来说,短期内可能不会涉及到通识的 pretrain 阶段,而是更专注于特定任务的训练。

希望今天的分享能让你对大语言模型的训练过程有更加深入的了解。

更多《Able 说 AI》内容,详情点击:https://www.aishu.cn/cn/blogs?product=33 

请就本文对您的益处进行评级:

标签

Able说AI

相关文章

热门标签

版本发布 在线教学
ai-assistant
chat
support
trial
需求助手 (内容由 AI 大模型生成,请仔细甄别)