
近几个月来,以ChatGPT为代表的生成式人工智能狂飙突进,大模型其内生及衍生安全威胁也愈演愈烈,数据泄露和有害内容等安全问题层出不穷。
如何将制约大模型应用发展的“绊脚石”变为“压舱石”?7月7日,清华大学人工智能研究院孵化企业瑞莱智慧在2023世界人工智能大会上,发布全新人工智能安全平台RealSafe3.0,为“加速度”发展中的大模型系好“安全带”。
大模型仍处于“野蛮生长”阶段
自人工智能诞生的那一刻起,创造技术的力量和控制技术的力量就存在不对等。新技术带来新的安全问题,这正是技术两面性。大模型亦是如此。近来,关于大模型的安全隐患屡见不鲜,例如:机密文件被泄露、添加无意义的字符后模型竟给出完全相反的回答、输出违法有害内容、隐含对某些人类社群的偏见和歧视等等。
这一新兴技术带来的风险,已经引起世界各国的高度关注。国家互联网信息办公室4月11日起草《生成式人工智能服务管理办法(征求意见稿)》公开征求意见;欧盟于6月14日投票通过了《人工智能法案》,以期法律法规引领技术向好向善发展。
瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者之间的平衡点。而在探寻这一平衡点的过程中,缺少易用和标准化的工具,即在技术层面上缺乏有力抓手,能够科学评判大模型在场景中能否同时满足规范和低风险,且能够进一步定位问题并给出优化建议,助力模型上线运行。
从源头找症结,用“魔法”打败“魔法”
据介绍,瑞莱智慧此次发布的人工智能安全平台3.0版本,集成主流及瑞莱智慧独有的世界领先的安全评测技术,能够提供端到端的模型安全性测评解决方案,以期解决当前通用大模型安全风险难以审计的痛点问题。相较上一版本,3.0版新增了对通用大模型的评测,已覆盖数据安全、认知任务、通用模型特有漏洞、滥用场景等近70个评测维度,未来还会持续扩增测评维度的数量。
“评测只是手段,帮助通用大模型提升其自身安全性才是核心目的。”萧子豪说,不能因为被技术反噬的担忧就止步不前,创造新技术和控制技术危害应该同步进行,“瑞莱智慧的办法是,从源头上找到症结,再用‘魔法’打败‘魔法’。”
如果将人工智能模型比作“引擎”,数据则是模型的“燃料”。可以说,数据集质量直接影响模型的内生安全。因此,瑞莱智慧3.0版内部集成了多个自研模型和专家论证高质量数据集,来帮助用户修复模型中的问题。对“黑盒”不可解释的通用大模型,自研对抗模型取代人工设计问题,显著提升攻击成功率和样本多样性。也就是说,该模型数据集中,不仅包含了自有数据集,还包含了模型自生成的数据,无论是从数据质量还是数据规模上都可圈可点,因此它能够自动化地挖掘出更多的漏洞。教练模型则通过对被测大模型进行多轮次的提问-回答训练,并以训练好的评分模型对问答结果进行评分,再将评分结果反馈给大模型,使其问答能力逐步迭代至最优。萧子豪透露:“这些技术,都是基于自研多模态大模型底座实现的。”返回搜狐,查看更多
责任编辑:
未经允许不得转载:头条资讯网_今日热点_娱乐才是你关心的时事 » 给狂飙的大模型系上“安全带”,瑞莱智慧发布最新AI安全平台
头条资讯网_今日热点_娱乐才是你关心的时事








