Able 说 AI 丨大模型的阴暗面:智能背后的安全隐忧
大家好,今天Able邀请到了爱数首席架构师陈骁,和大家聊聊关于大模型的安全问题。
以ChatGPT 为代表的预训练大模型
掀起了一场重要的技术变革
而由此带来的数据泄露和内容安全问题
成为了人工智能领域面临的挑战之一
越来越备受关注
在推进人工智能应用的同时
我们迫切需要重视并解决这些安全问题
而构建大模型安全体系
是爱数长期且最重要的任务之一
点击视频
了解爱数推出的大模型落地的解决方案
何以在这个前沿领域中
实现大模型的安全应用
大模型的安全主要体现在三个方面:
- 隐私或敏感数据泄露;
- 生产不安全的内容;
- 基于提示提示词的应用安全问题。
我们爱数推出的大模型落地的方案解决方案会从下面三个方向来应对这些问题,下面以AnyShare + AnyDATA 来实现非结构化数据中台为例:
- 用户可以选择将大模型私有化部署,我们的 AnyShare + AnyDATA 支持这种方式,从部署层面杜绝隐私泄露的风险。
- 我们采用RAG的方式,利用AnyShare存在的文档和AnyDATA上的知识网络来高质量的知识增强,约束大模型的数据,让大模型的输出更加可信及可解释,加上文档和知识网络上的权限管控,让用户安全地获取知识。
- 管控提示词的质量,沉淀标准安全的提示词的同时,利用模型工厂对提示词进行效果评估,防止提示词注入等攻击手段。
我们要去落地大模型的应用,就必须面对安全这个议题,安全的使用大模型,就像是星球大战中使用原力一样,如果你想获得超凡的能力就必须克服其阴暗面。对于大模型安全体系的构建,一直是我们长期且最重要的任务之一,我们一直在路上。
更多《Able 说 AI》内容,详情点击:https://www.aishu.cn/cn/blogs?product=33
请就本文对您的益处进行评级: