近日,vivo自主研发的蓝心大模型,以卓越的表现率先完成由中国信息通信研究院人工智能研究所主导的“大模型安全风险防范能力要求及评估方法”测评工作,成为行业首批完成测评的企业,并在所有评测项目中荣获最高认证级别的优秀防护级。
全生命周期安全保障
vivo已构建了一个全面的大模型矩阵,覆盖从十亿级到千亿级不同的参数规模,并开源了拥有70亿参数的大模型。这一战略旨在为用户提供最佳体验,同时助力合作伙伴在低门槛下获取大模型技术,推动整个行业的发展。然而,随着大模型的普及和应用,其安全性和隐私保护问题成为行业关注的焦点。因此,大模型能力合理使用与安全合规治理成为当下亟待解决的问题。
vivo深知,要应对大模型在安全性与隐私保护方面存在的挑战,需关注其全生命周期,从数据收集、模型训练等源头环节入手,加强产品服务提供过程中的安全措施,制定细致的安全策略,实现全链路安全与隐私保障措施,有效提升大模型的安全性。
评估结果与技术优势
根据测评结果,**vivo在《训练数据安全》《模型安全》《内容安全》《服务安全运营》等大模型全生命周期四大板块的测评中均符合评估要求,且均获得最高级别优秀防护级。**具体来说:
该评估依据AIIA/PG 0151-2024《大模型安全风险防范能力 第1部分:训练数据安全要求及评估方法》,针对大模型技术提供方(以下简称“提供方”)训练数据安全,从数据生存周期安全和通用数据安全两个过程域,提出了大模型训练数据安全要求及评估方法。将提供方应具备的训练数据安全能力量化为安全合规要求、技术保障手段和质量控制措施三个方面,通过多种评估手段帮助提供方在大模型研发过程中掌握训练数据总体安全情况,发现训练数据构建过程的潜在安全风险。vivo在AIIA测评完成了训练数据安全防范能力所有评测要求,获得最高认证级别优秀防护级。
该评估依据AIIA/PG 0152-2024《大模型安全风险防范能力 第2部分:模型安全要求及评估方法》,针对大模型技术提供方(以下简称“提供方”)的模型安全,从模型可信和模型安全两个维度提出大模型的安全能力要求及评估方法。在模型可信方面,重点评估模型面对干扰的鲁棒性、模型披露信息的透明度以及输出内容的公平性。在模型安全方面,一方面通过已知的模型攻击方法开展模型安全测试,另一方面基于技术提供方披露信息评估模型的安全保障能力。**为了降低用户大模型使用安全隐私顾虑,**vivo自主研发的蓝心端侧大模型,搭载于X Fold3 Pro机型,也顺利通过了AIIA测评,验证了大模型的安全风险防范能力,获得最高认证级别优秀防护级。
该评估依据AIIA/PG 0153-2024《大模型安全风险防范能力 第3部分:内容安全能力要求及评估方法》,面向大语言模型的技术提供者、服务提供者,在模型及服务的内容安全防护过程中,配备的对输入输出内容的识别和过滤能力进行评价。在评估过程中,根据当前大模型服务中常见的违法、伦理等20余个类型的内容安全风险,对模型的输出做出验证,根据各风险类型的输出结果给出安全防护能力分级。vivo蓝心端侧大模型在内容安全方面同样表现优异,获得最高认证级别优秀防护级。
**
**
该评估依据AIIA/PG 0154-2024《大模型安全风险防范能力 第4部分:服务安全运营能力要求及评估方法》,通过可编程接口形式为我国境内公众提供大模型服务的组织。在大模型服务部署应用和运行维护阶段,针对数据安全能力、内容安全能力、服务规范要求、运行监测等四个方面评估大模型服务的安全运营能力。该标准通过技术评估和材料审核相结合的方式,助力大模型服务提供方在大模型部署和应用过程中安全运营能力的提升,增强用户对大模型服务的信任度和满意度,推动大模型服务的广泛应用和发展。vivo通过AIIA测评完成了服务安全运营能力所有评测要求,证明了vivo在大模型服务安全运营方面也实现了全方面能力建设。
注:此项不涉及等级划分,仅为通过与不通过结论
行业共建与展望
vivo也在积极参与行业标准制定,参与包括ITU、TC260、CCSA、TAF、AIIA等国内外权威标准组织 ,并在安全标准方面做出了积极贡献。在AI应用安全的专题研究中,vivo已牵头或参与编制了20多项标准,其中《移动智能终端端侧大模型安全实施指南》在TAF成功立项,凸显了vivo在安全标准方面的深入投入与实践。
未来,vivo将持续加大在AI安全技术研究、安全生态共建等方面的投入,致力于为用户提供更安全、更可靠的人工智能产品和服务。通过不断的技术创新和安全实践,vivo携手与行业前行,为构建信任基础、保护用户隐私作出积极贡献。
往期推荐:
关注我们,了解更多安全内容!