AnyBackup
性能爆表
AnyShare
如何购买
我已是Anyshare 客户
AnyRobot
如何购买
购买 AnyRobot 订阅服务
我已是 AnyRobot 客户
一对一在线咨询
我是 AnyRobot 新客户
一对一在线咨询
AnyDATA

爱数博客

全部 AnyBackup AnyShare AnyRobot AnyDATA AnyFabric

Able 说 AI 丨 大模型幻觉:一种特性而非缺陷

2024-01-08 571 0
大家好,今天 Able 邀请到了爱数 AnyShare 研发线&人工智能研究院负责人许鹏,和大家一起探讨下大模型幻觉。

“幻觉”(Hallucination)是大语言模型(Large Language Model,LLM)中的一种独特现象。它表现为大语言模型输出一系列看似符合逻辑,但实际错误或并不存在的虚假事实。

大模型幻觉的特点:
1. 模型可能以自信的语气表达错误或虚构的信息
2. 模型可能编造不存在的引用或来源来支持其陈述
3. 模型可能会产生矛盾的陈述

大模型幻觉的起因:
1. 大模型由于规模和架构等原因导致的能力有限性
2. 训练数据的噪声、偏差和过时
3. 过度泛化


大模型幻觉的应对方法:
0. 认识到模型的局限性
1. 选择更加强大的模型
2. 使用 RAG 等技术对 prompt 进行约束和增强
3. 对模型输出进行产品封装或者核查
4. 进行模型的继续的高质量数据的领域预训练和微调
5. 通过产品设计来增强结果的透明性和可解释性

人们对LLM产生的幻觉、虚假陈述等现象感到担忧,想方设法减少LLM回应中的幻觉可能性。而OpenAI科学家、特斯拉前AI总监Andrej Karpathy发文,将LLM描述为“造梦机”,他不认为幻觉是LLM的一个缺陷,恰恰相反,这是LLM强大力量的体现。换句话说,“幻觉”其实是大模型创造力的来源。

 

请就本文对您的益处进行评级:

标签

Able说AI

相关文章

热门标签

版本发布 在线教学

拨打400

免费销售咨询热线

400 8216055

7*24 小时免费售后服务热线

400 880 1569

购买咨询

购买咨询

售后服务

售后服务

返回顶部

为了给您提供更优质的服务,请您先完善以下信息:
确认提交

扫码关注

爱数技术支持中心公众号