美国国家标准暨技术研究院(National Institute of Standards and Technology,NIST)于上周释出Dioptra 1.0,这是一个用来评估AI安全及可靠性的软件测试平台,它支持AI风险管理框架(AI RMF)的测量功能,可评估、分析及追踪AI风险。
Dioptra 1.0界面截图
Dioptra最早现身于2022年,当时NIST形容它是一个用来评估适合用来保护机器学习系统之安全技术与解决方案的方法,并让研究人员比较用来对抗不同攻击、资料集或各种状况的方法。
而今释出的Dioptra 1.0版预计提供几项功能,一为模型测试,如第一方于开发生命周期中评估AI模型,或是第二方在收购前或于实验室环境中以Dioptra来评估AI模型,以及身为第三方的审计员或合规官员用来评估模型的法规与道德标准。
此外,Dioptra还可协助学术界或产业的研究人员有系统地追踪与记录AI实验; 或是提供一个标准化平台,让参与AI竞赛或评估挑战的参赛者测试他们的模型; 也能让红队藉由模拟攻击或对抗条件,来测试AI模型的韧性与安全性。
整体而言,NIST期望Dioptra成为一个多功能的平台,在不同的开发阶段或用途上测试、评估与确保AI模型的可靠性。
01
关于AI风险管理框架(AI RMF)
NIST提到,和传统软件相比,人工智能存在更多的潜在风险。这是因为人工智能系统使用的训练数据,因时间推移而改变,有时会出现意料之外的变化,所以,NIST认为,在本质上,人工智能系统是一种社会技术(Socio-technical),像是在线聊天机器人或是筛选贷款申请所用的模型,都受到社会动态和人类行为的影响。
这套AI RMF框架由NIST与美国政府部门和企业合作制定,能够适应不断发展的人工智能技术,以及受到组织以不同程度和能力的使用,使得整个社会不仅能从人工智能技术获益,也能免受潜在风险危害。透过该框架的检视,组织能以不同角度思考人工智能的风险,包括促进本身制度文化的变革,更全面地思考、评估和监控人工智能风险,以及积极和消极层面的影响。透过框架当中提供的灵活且结构化评估,组织只要遵循该人工智能风险管理流程,就能发挥人工智能优势,降低对个人、团体、社群,甚至是社会的负面影响。
这套AI RMF框架由NIST与美国政府部门和企业合作制定
整体而言,AI RMF分为两部分,首先探讨人工智能的相关风险,以及信赖人工智能系统(trustworthy AI systems)的特征,其次则是描述4大具体功能,分别为治理、映射、测量管理,协助组织实践框架。
NIST期望Dioptra成为一个多功能的平台
02
关于AI RMF内容的定稿
NIST总共耗费18个月之久,他们从240个组织收到400份针对AI RMF草案的正式评论,并利用这些回馈意见补足与改良AI RMF。在此同时,NIST也发布AI RMF Playbook,从中指导组织使用该框架的方法。后续将与人工智能社群合作并定期更新框架,并成立可靠、负责任人工智能的资源中心(Trustworthy and Responsible AI Resource Center),协助组织实践AI RMF 1.0。
推荐阅读
美军网络空间作战装备技术发展现状及趋势分析****************
**美国发布最新版《北极战略》,意欲在北极地区与中俄竞争?**************************************************************************
**卫星总线漏洞及其攻击者路径和卫星固件安全威胁分析模型**************************************************************************