人工智能风险管理框架:第二稿 2022年8月18日 审稿人须知:征集评论和投稿 人工智能风险管理框架 NIST人工智能风险管理框架(AIRMF或框架)的第二稿建立在2022年3月的初始版本和2021年12月的概念文件之上。它反映并整合了收到的建设性反馈。 AIRMF旨在自愿使用,以解决AI产品、服务和系统的设计、开发、使用和评估中的风险。人工智能研发以及标准格局正在迅速发展。出于这个原因,人工智能RMF及其配套文件将随着时间的推移而发展,并反映新的知识、意识和实践。NIST打算继续与利益相关者合作,以使框架与AI趋势保持同步,并根据AIRMF的使用反映经验。最终,AIRMF将以多种格式提供,包括在线版本,以提供最大的灵活性。 AIRMF草案的第1部分解释了开发和使用该框架的动机、其受众以及AI风险和可信度的框架。第2部分包括AIRMF核心以及对配置文件及其使用的描述。 NIST欢迎对本草案提供反馈,以便为AIRMF的进一步发展提供信息。请在2022年9月29日之前 通过电子邮件将评论发送至AIframework@nist.gov。NIST收到的所有评论都将公开,因此不应包含 个人或敏感信息。在2022年10月18日至19日举行的第三次AIRMF研讨会的讨论中,也欢迎提供反馈。NIST计划在2023年1月发布AIRMF1.0。 人工智能风险管理框架(AIRMF)手册 随着AIRMF第二稿的发布,NIST征求对草案的评论伴侣AIRMF剧本.Playbook通过在AI系统的设计、开发、使用和评估中纳入可信度考虑因素,提供框架用户可以采取的行动来实施AIRMF。Playbook草案基于AIRMF的第二稿。它包括“治理”和“地图”的示例操作、参考和补充指南——四个建议功能中的两个。“测量”和“管理”功能的草稿材料将在稍后发布。 与AIRMF一样,Playbook旨在供自愿使用。组织可以根据自己的需要和兴趣使用这些信息s。NIST 鼓励对此草案的反馈和贡献。Playbook是一种在线资源,临时托管在GitHubPages上。 最初的AIRMFPlaybook将于2023年1月发布。它旨在成为一个不断发展的资源,感兴趣的各方可以提交反馈和建议的补充内容以滚动方式进行裁决。 鼓励个人评论: 1.它作为AIRMF的补充资源的相对有用性。 2.该指南是否可操作以满足每个AIRMF功能,尤其是与组织规模相关的功能。 3.为即将推出的第一个在线版本建议的演示替代方案,以提高可用性和有效性。 反馈可以作为评论提供,也可以作为特定的行编辑添加或修改提供。NIST欢迎有关包括对现有资源或新资源的引用以帮助AIRMF用户的建议。可以随时为Playbook提出意见,并将每半年进行一次审核和整合。NIST正在通过电子邮件请求第一轮评论AIframework@nist.gov到2022年9月29日。在2022年10月18日至19日及以后举行的第三次AIRMF研讨会的讨论中,也将欢迎发表评论。 NIST值得信赖和负责任的AI资源中心 NIST值得信赖和负责任的AI资源中心将托管AIRMF、Playbook和相关资源,为实施AIRMF以及更广泛地推进可信赖的AI提供指导。附加指南的贡献——这将构成资源中心内容的大部分–随时欢迎 。贡献可能包括AIRMF配置文件、解释性论文、文档模板、测量和评估方法、工具包、数据集、政策或建议的AIRMF与其他资源的人行横道 –包括标准和框架。最终,贡献可能包括AIRMF案例研究、对框架采用和有效性的审查、教育材料 、与可信AI管理相关的其他技术形式的技术指导,以及其他实施资源。人工智能资源中心预计将包括一个标准中心和一个指标中心,以及一个术语知识库和相关的技术和政策文件。 提供的指导可能会解决包括但不限于以下问题: 一个行业或部门如何利用该框架 小型组织如何使用该框架 如何落实框架的利益相关者参与要素(包括让外部利益相关者社区参与评估风险的做法,以及在产生人工智能的组织团队中推进多样性、公平和包容性考虑) AIRMF如何用于采购或采购活动 在AI生命周期的一个或多个部分集成团队的方法 该框架如何与其他人工智能风险管理指南一起使用 该框架如何帮助解决安全问题,包括防范对人工智能系统的对抗性攻击 评估人工智能系统风险的社会技术方法 增强对人工智能系统风险的人工监督的技术 将贡献纳入AIRMF手册和NIST可信赖和负责任的AI资源中心的标准 为了被NIST考虑纳入Playbook或NIST可信赖和负责任的AI资源中心,资源必须在Internet上公开可用。NIST欢迎来自营利性实体的免费资源。来自非营利实体的付费资源也符合纳入的基本标准。如果资源符合这些标准,则应将资源描述发送至AIframework@nist.gov。 NIST可能在其指南或NIST可信赖和负责任的AI资源中心中包含商业实体、设备或材料,以支持框架的理解和使用。此类标识并不意味着NIST的推荐或认可,也不意味着实体、材料或设备一定是为此目的最好的。 更新时间表:AIRMF将采用两个数字的版本控制系统来跟踪和识别在其整个开发过程中做出的重大 变化和关键决策。第一个数字将代表AIRMF及其所有伴随文档的生成。AIRMF生成将在对框架进行重大修订时增加。所有AIRMF文档的最新版本将具有相同的世代标识符。次要修订将在代号后使用“.n”进行跟踪。对文档进行任何编辑时,次要修订标识符都会增加。AIRMF资源可能具有不同的次要修订标识符。在较高级别上,所有更改都将使用版本控制表进行跟踪,该表标识历史记录 ,包括版本号、更改日期和更改描述。 目录 第1部分 1.概述1 1.1.值得信赖和负责任的人工智能1 1.2.AIRMF2的目的 1.3.从何处获取更多信息3 2.观众4 3.框架风险7 3.1.了解风险、影响和危害7 3.2.人工智能风险管理的挑战8 4.人工智能风险与可信度10 4.1.有效可靠13 4.2.保险箱13 4.3.公平–偏差得到管理14 4.4.安全和弹性14 4.5.透明和负责任的15 4.6.可解释的和可解释的15 4.7.隐私增强16 5.AIRMF16的有效性 第2部分 6.人工智能RMF核心17 6.1.治理18 6.2.地图20 6.3.措施23 6.4.管理25 7.AIRMF配置文件26 附录 附录A:图1中AI参与者任务的描述27 附录B:AI风险与传统软件风险有何不同30 人工智能风险管理框架第1部分:动机 1.概述 1.1.值得信赖和负责任的人工智能 人工智能(AI)能力的显着增长带来了广泛的创新,这些创新有可能使我们社会和经济的几乎所有方面受益——从商业和医疗保健到交通和网络安全。人工智能技术通常用于通过通知、建议或简化任务来实现有益的影响。 管理人工智能风险与管理其他类型技术的风险没有什么不同。任何软件或基于信息的系统的风险都适用于人工智能,包括与网络安全、隐私、安全和基础设施相关的问题。与这些领域一样,人工智能系统的影响可以分为长期或短期、高概率或低概率、系统性或局部性以及高或低影响。然而,人工智能系统带来了一系列需要具体考虑和方法的风险。人工智能系统可以放大、延续或加剧不公平的结果。人工智能系统可能会表现出紧急特性或对个人和社区造成意想不到的后果。数据交互的有用数学表示驱动人工智能系统行为的因素尚不完全清楚,这使得当前衡 量风险和导航风险收益权衡的方法不足。人工智能风险可能来自用于训练人工智能系统的数据、人工智能系统本身、人 工智能系统的使用或人与人工智能系统的交互。 虽然关于什么使人工智能技术值得信赖的看法不同,但有一些确定的可信系统的主要特征。值得信赖的人工智能是有效和可靠、安全、公平和偏见得到管理、安全和有弹性、负责任和透明、可解释和可解释,以及增强隐私。 AIRMF将AI系统称为工程或基于机器的系统,它可以针对一组给定的人为定义的目标,生成影响真实或虚拟环境的预测、建议或决策等输出。人工智能系统旨在以不同程度的自治运行(改编自 :经合组织关于人工智能的建议:2019 人工智能系统本质上是社会技术的,这意味着它们是设计、开发和;使I用SO中/I涉EC及2的29复89杂:20的22人)类。、组织和技术因素的产物。许多值得信赖的人工智能特征——例如偏见、公平、可解释性和隐私——与社会动态和人类行为直接相关。人工智能的风险和收益可能来自技术方面的相互作用以及与系统如何运作相关的社会技术因素 被使用,它与其他人工智能系统的交互,谁操作它,以及它被部署到的社会环境。 负责任地使用和实践人工智能系统是人工智能系统可信度的对应物。人工智能系统本身并没有坏处或风险,通常是上下文环境决定了是否会发生负面影响。AI风险管理框架(AIRMF)可以帮助组织加深对他们构建和部署的AI系统的环境如何与个人、团体和社区进行交互和影响的理解。负责任的人工智能使用和实践可以: »协助AI设计人员、开发人员、部署人员、评估人员和用户更批判性地思考上下文和潜在或意外的负面和正面影响; »被利用来设计、开发、评估和使用人工智能系统,并考虑到影响;和 »预防、抢占、检测、减轻和管理人工智能风险。 1.2.AIRMF的目的 通过了解和管理人工智能系统的风险来培养信任,将有助于维护公民自由和权利,提高安全性,同时为创新创造机会并充分发挥这项技术的潜力。AIRMF旨在解决AI系统特有的挑战,并鼓励和装备不同的AI利益相关者主动和有目的地管理AI风险。该框架描述了管理各种类型、应用程序和成熟度的人工智能风险的过程——无论行业、规模或对特定类型技术的熟悉程度如何。AIRMF不是在其他指南中重复信息,而是旨在填补特定于AI风险的空白。鼓励AIRMF的用户通过当前可用的指南解决非AI特定问题。 AIRMF是一个自愿框架,旨在提供一个灵活、结构化和可衡量的流程,以在整个AI生命周期中前瞻性地和持续地解决AI风险。它旨在通过改进理解、检测和抢占,帮助组织管理与人工智能系统的设计、开发、部署、评估和使用相关的企业和社会风险。使用AIRMF可以帮助组织、行业和社会了解和确定其可接受的风险水平。 AIRMF不是一个清单,它不打算单独使用。组织可能会发现将AIRMF纳入企业风险管理的更广泛考虑中很有价值。 AIRMF不是合规机制。它与法律和法规无关,因为人工智能政策讨论是实时和不断发展的。虽然风险管理实践应纳入并符合适用的法律和法规,但本文件无意取代现有的法规、法律或其他规定。 研究界可能会发现AIRMF在评估可信赖和负责任的AI的各个方面以及相关影响方面很有用。 通过在AIRMF中应用建议,组织将能够更好地管理、映射、衡量和管理AI的风险。使用AIRMF 可以减少负面影响的可能性和程度,并增加个人、团体、社区、组织和社会的利益。 在人工智能系统生命周期的开始阶段应用该框架应该会显着增加最终系统更值得信赖的可能性——个人、团体、社区、组织和社会的风险将得到更有效的管理。框架用户有责任定期将AIRMF功能应用于AI系统,因为上下文、利益相关者的期望和知识将随着时间的推移以及他们的AI系统的更新或扩展而发展。 NIST与私营和公共部门合作开发AIRMF是由2020年国家人工智能倡议法案(P.L.116-283)和国家人工智能安全委员会指导的,并且与其所要求的更广泛的AI努力一致建议,以及联邦参与制定技术标准和相关工具的计划。在该框架的开发过程中与广泛的AI社区的接触为NIST和其他机构的AI研发和评估提供了信息。 本框架的第1部分建立了人工智能风险管理流程的背景。第2部分提供了有关结果和活动的指导,以执行该过程以最大限度地提高人工智能的收益并最大限度地降低人工智能的风险。配套资源AIRMF手册提供了在开发和部署AI产品、服务和系统之前、期间和之后执行本指南时需要考虑的示例实践 。 1.3.从何处获取更多信息 框架和支持资源将根据不断发展的技术