Able 说 AI 丨 大模型幻觉:一种特性而非缺陷
大家好,今天 Able 邀请到了爱数 AnyShare 研发线&人工智能研究院负责人许鹏,和大家一起探讨下大模型幻觉。
“幻觉”(Hallucination)是大语言模型(Large Language Model,LLM)中的一种独特现象。它表现为大语言模型输出一系列看似符合逻辑,但实际错误或并不存在的虚假事实。
大模型幻觉的特点:
1. 模型可能以自信的语气表达错误或虚构的信息
2. 模型可能编造不存在的引用或来源来支持其陈述
3. 模型可能会产生矛盾的陈述
大模型幻觉的起因:
1. 大模型由于规模和架构等原因导致的能力有限性
2. 训练数据的噪声、偏差和过时
3. 过度泛化
大模型幻觉的应对方法:
0. 认识到模型的局限性
1. 选择更加强大的模型
2. 使用 RAG 等技术对 prompt 进行约束和增强
3. 对模型输出进行产品封装或者核查
4. 进行模型的继续的高质量数据的领域预训练和微调
5. 通过产品设计来增强结果的透明性和可解释性
人们对LLM产生的幻觉、虚假陈述等现象感到担忧,想方设法减少LLM回应中的幻觉可能性。而OpenAI科学家、特斯拉前AI总监Andrej Karpathy发文,将LLM描述为“造梦机”,他不认为幻觉是LLM的一个缺陷,恰恰相反,这是LLM强大力量的体现。换句话说,“幻觉”其实是大模型创造力的来源。