为了给您提供更优质的服务,请您先完善以下信息:
确认提交

扫码关注

爱数技术支持中心公众号

请选择:

请选择咨询类型

AnyShare
AnyBackUp
AnyRobot

扫码关注

爱数技术支持中心公众号

性能爆表
AnyShare
如何购买
我已是Anyshare 客户
AnyRobot
如何购买
购买 AnyRobot 订阅服务
我已是 AnyRobot 客户
一对一在线咨询
我是 AnyRobot 新客户
一对一在线咨询

爱数博客

全部 AnyBackup AnyShare AnyRobot AnyDATA AnyFabric

Able 说 AI 丨 大模型幻觉:一种特性而非缺陷

2024-01-08 687 0
大家好,今天 Able 邀请到了爱数 AnyShare 研发线&人工智能研究院负责人许鹏,和大家一起探讨下大模型幻觉。

“幻觉”(Hallucination)是大语言模型(Large Language Model,LLM)中的一种独特现象。它表现为大语言模型输出一系列看似符合逻辑,但实际错误或并不存在的虚假事实。

大模型幻觉的特点:
1. 模型可能以自信的语气表达错误或虚构的信息
2. 模型可能编造不存在的引用或来源来支持其陈述
3. 模型可能会产生矛盾的陈述

大模型幻觉的起因:
1. 大模型由于规模和架构等原因导致的能力有限性
2. 训练数据的噪声、偏差和过时
3. 过度泛化


大模型幻觉的应对方法:
0. 认识到模型的局限性
1. 选择更加强大的模型
2. 使用 RAG 等技术对 prompt 进行约束和增强
3. 对模型输出进行产品封装或者核查
4. 进行模型的继续的高质量数据的领域预训练和微调
5. 通过产品设计来增强结果的透明性和可解释性

人们对LLM产生的幻觉、虚假陈述等现象感到担忧,想方设法减少LLM回应中的幻觉可能性。而OpenAI科学家、特斯拉前AI总监Andrej Karpathy发文,将LLM描述为“造梦机”,他不认为幻觉是LLM的一个缺陷,恰恰相反,这是LLM强大力量的体现。换句话说,“幻觉”其实是大模型创造力的来源。

 

请就本文对您的益处进行评级:

标签

Able说AI

相关文章

热门标签

版本发布 在线教学

拨打400

免费销售咨询热线

400 8216055

7*24 小时免费售后服务热线

400 880 1569

购买咨询

购买咨询

售后服务

售后服务

返回顶部