您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[CSET]:将牙齿放入 AI 风险管理 - 发现报告
当前位置:首页/行业研究/报告详情/

将牙齿放入 AI 风险管理

医药生物2024-05-15CSET记***
将牙齿放入 AI 风险管理

执行摘要 拜登总统最近签署了一项旨在加强联邦政府人工智能治理的全面行政命令,这给人工智能风险管理标准和联邦采购指南的制定和实施带来了紧迫性。1管理和预算办公室(OMB)迅速遵循其对部门和机构的指导,其中包括AI最低风险标准及其纳入联邦合同。2一个迫在眉睫的挑战是政府如何最好地利用联邦采购规则、要求和实践,以确保供应商遵守人工智能开发最佳实践。 联邦政府经常利用其巨大的购买力来激励和执行其工业基础中的政策,使合规性成为获得政府合同的条件。TheU.S.政府作为许多顶级公司的主要客户的地位有效地使其网络安全框架成为全球政府和行业采用的“事实上的标准”。3在网络安全的情况下,采购规则在增加最佳实践的使用和采用方面的有效性促使国会议员和行业领导者将其作为人工智能风险管理执法的榜样。 人工智能风险管理框架的当前演变,推动其在政府中开发和使用的相应立法,以及将其纳入联邦采购法规的呼吁,与推动创建网络安全框架和联邦采购规则的条件相似。因此,联邦政府采用和实施采购规则以在其供应商基础内执行网络安全标准,为人工智能提供了蓝图,并可以帮助预测即将到来的困难。这些以前的经验教训和网络安全采购规则的实施带来的挑战包括: 1.难以平衡风险管理水平与风险影响水平。 2.在评估要求中难以平衡信任和验证。 3.难以监督和执行劳动力准备和培训。 4.关注第三方审计和政府监督。 5.使用采购规则执行事件报告和共享。 以这些经验教训为指导,本文为寻求制定人工智能采购实践和标准的政策制定者提供了以下建议: 1.制定标准以评估AI系统的风险水平和潜在影响。建立类别以区分AI系统构成的风险水平,并制定每个类别所需的适当风险管理实践。 2.基于系统的整体风险的需求验证级别。合规审计成本很高,因此联邦政府应利用风险类别来确定哪些系统需要合规审计。 3.授权并为联邦采购人员提供有关AI风险管理标准的培训。 4.利用第三方审计师来支持对供应商遵守AI风险管理标准的评估。这将解决联邦劳动力中的劳动力限制和技能差距,但重要的是最终批准决定由政府决定。建立AI标准卓越中心,以提供政府监督和支持合规性评估。 5.使用合同规则来激励,并在必要时迫使政府供应商遵守人工智能事件报告和跨机构共享。 这些建议为如何避免过去的失误提供了实施指导,同时也能够及时采用最佳做法。监督和执行供应商遵守人工智能风险管理标准将需要代表政府做出重大努力,这应该从网络安全的历史经验中得到启示 ,并为满足人工智能技术的特定需求而量身定制。这些建议可以帮助指导建立有效的采购规则、实践和执法基础设施,以最好地确保人工智能风险管理合规性,并减轻人工智能危害的实现。 目录 执行摘要1 Introduction4 当前和拟议的人工智能条例和规则5 合同中的网络安全风险管理——以人工智能为例6 AI的网络安全采购挑战和经验教训8 平衡风险管理水平与风险影响水平8 建议9 在供应商对风险管理实践的承诺与政府的验证需求之间取得平衡10 建议12 适当准备收购员工12 建议14 第三方审计关注事项14 建议15 突发事件共享和报告实施16 建议17 AI风险管理建议摘要18 ......................................................................................................................................................19 作者20 Acknowledgments20 尾注21 Introduction 美国总统乔·拜登(JoeBiden)在2023年10月签署了一项旨在加强联邦政府人工智能治理的全面行政命令,这使得制定和实施人工智能风险管理标准和联邦采购准则变得迫在眉睫。4管理和预算办公室(OMB)迅速遵循其对部门和机构的指导,要求将AI风险标准纳入未来的联邦合同。5随着各机构寻求实施行政命令和OMB指导,一个迫在眉睫的问题是,联邦政府如何最好地利用联邦采购规则、要求和实践,将人工智能风险管理标准纳入其中,并确保供应商合规。 国会、工业界和学术界也对人工智能监管和采购规则提出了类似的呼吁,并引用了早期的网络安全指南作为榜样。6联邦网络安全采购法规的演变提供了相关案例研究,以识别和预测人工智能合规任务可能面临的挑战。本文档讨论了存在或已经提出的AI风险管理法规,为什么网络安全是AI法规的有用先例,从联邦采购中的网络安全任务中汲取的经验教训,以及有关如何最好地利用联邦采购来强制要求AI风险管理标准合规性的相应建议。 当前和拟议的人工智能条例和规则 迄今为止,美国政府执行AI风险管理实践的方法仅是自愿的。拜登政府获得了一些顶级AI公司的自愿承诺,以帮助推进安全,可靠和可信赖的AI的发展,但这些承诺缺乏政府追究这些公司责任的执行机制。7最近的行政命令和OMB指南表明,打算对AI风险管理进行更严格的控制,以确保政府的供应商正在减轻危害并负责任地使用AI。 对于联邦政府及其供应商来说,人工智能风险管理要求的路径来自立法和行政命令。《2020年国家人工智能倡议法案》指示国家标准与技术研究所(NIST)创建AI风险管理框架(RMF),并指示OMB为联邦机构如何负责任地开发和获取AI技术提供计划。8《2022年人工智能培训法案》指示为收购专业人员建立关于如何有效采购和管理人工智能系统的培训计划。9最近,拜登政府发布了关于人工智能的行政命令,以确保联邦政府对人工智能系统的安全、可靠和可信赖的开发和使用 。 最新的行政命令指示OMB制定风险管理实践,并指出该办公室“应制定初步手段,以确保获取AI系统和服务的代理合同与指南保持一致。10OMB遵循这一方向,发布了为AI风险管理实践设定基线的指南,并要求联邦合同中的这些实践。11进一步的标准可能来自立法的通过,该立法将强制在联邦机构和供应商中使用NIST的AIRMF。12OMB发布的最低风险管理实践和更彻底的NISTRMF旨在帮助减轻与AI开发和使用相关的危害。可能通过合同要求建立监督和执行机制,对于这些政策和标准实现其风险管理目标至关重要。幸运的是,这不是联邦政府第一次寻求通过采购法规来执行技术标准。 合同中的网络安全风险管理——以人工智能为例 20世纪90年代和2000年代互联网和信息技术的出现迫使政府找到采用这些技术的方法,并导致网络安全实践来减轻新的风险。随着人工智能技术的出现并提供新的机遇和风险,联邦政府也面临着类似的挑战。类似于OMB在联邦合同中要求人工智能风险管理实践的指导,官员们利用采购规则指导联邦供应商遵守网络安全实践。减轻新兴技术带来的风险的挑战以及执行供应商合规性的方法,使网络安全成为预测AI标准监督和执行方面挑战的令人信服的案例研究。 作为一种执行机制,采购准则非常适合要求政府供应商遵守联邦标准。它们还可以激励和影响整个私营部门的行为。美国政府授予 每年向供应商提供7600亿美元的政府合同,其中33亿美元将在2022年授予人工智能能力。13要获得这笔资金,联邦供应商必须遵守政府的要求。这些供应商包括传统的国防承包商(例如Procedre,波音,RTX,洛克希德·马丁公司)和微软,谷歌和3M等商业公司。满足联邦要求可以产生积极的下游利益,因为随着公司开发业务流程和实践以满足政府采购要求,他们通常也将这些要求传递到其业务的商业方面。TheU.S.政府已经利用其作为重要客户的地位来影响私营公司的行为,包括在网络方面,行业领导者指出,政府可以在人工智能风险管理方面做同样的事情。14 2002年,国会通过了《联邦信息安全管理法案》(FISMA)。 1.指示联邦机构实施信息安全计划,以支持该机构的运营和资产,包括由承包商或其他来源管理的运营和资产。 2.授权联邦报告和安全实施评估。 3.指定NIST负责制定保护信息系统的标准、准则和方法。 行政部门发布了自己的政策,建立了管理联邦供应链中网络风险的标准和控制措施。值得注意的是 ,政府通过采购指南强制执行了这些控制措施,该指南强制要求供应商根据NIST标准建立特定的信息安全控制措施并遵守事件报告要求。 美国政府作为许多顶级公司的主要客户的地位已经有效地安装了由NIST开发的联邦网络安全框架,作为全球采用的“事实上的标准”。15正如国会议员和行业领导者所言,采购规则在增加网络安全框架的使用和采用方面的有效性使这个例子成为人工智能风险管理执法部门效仿的有力例子。16 AI的网络安全采购挑战和经验教训 尽管网络安全标准和采购规则已被视为人工智能风险管理的先例,但这些规则的执行并非没有问题。这些实施挑战包括: 1.难以平衡风险管理水平与风险影响水平。 2.难以平衡对供应商对风险管理实践的承诺的信任与政府验证的需要。 3.难以监督和执行劳动力准备和培训。 4.关注第三方审计和政府监督。 5.使用采购规则激励事件报告和共享。 承认这些挑战可能有助于监管机构和标准制定者预测人工智能风险管理中的挑战。本节提供了有关每个实施挑战的背景信息,以及在人工智能的情况下如何最好地克服这些挑战的相应建议。 平衡风险管理水平与风险影响水平 Ensurethatthegovernmentdidnotcreateunnecessaryoneralrequirementsforeverygovernmentandvendorinformationsystemwasanearlybestpracticeadoptedformanagingnetworkrisk.The2002FISMAlegislationdirectedNISTtodevelopguidelinesandstandardsforsecuringfer 1.根据一系列风险级别定义所有信息系统和信息的类别的标准。 2.建议将信息类型和信息系统包括在每个定义的风险类别中的指南。 3.每个此类类别中信息和信息系统的最低信息安全要求。 NIST遵守该指令,制定了联邦政府遵循的标准(表1),以确定必要的风险缓解水平,并使安全控制能够针对不同的风险水平进行调整。17 Table1:SummaryoftheDocumentsNISTDevelopedinCompliancewithFISMADirectives NIST标准文件 Purpose 联邦信息处理标准(FIPS)出版物199 如果存在违反机密性、完整性或可用性的情况,根据对组织的潜在影响,按影响级别(低、中或高)对信息和信息系统进行分类。 FIPS出版物200 指定17个安全相关领域的联邦信息和信息系统的最低安全要求,以根据FIPS199确定的风险级别实现足够的安全性。 特别出版物800-53 定义联邦信息和信息系统的安全和隐私控制,以管理风险并确保信息的机密性,完整性和可用性。 以同样的谨慎管理所有风险既没有效率也没有效果。在所有场景中要求最严格的标准是资源的低效使用,在所有场景中只使用最低标准是不够的。创建了安全类别和必要的控制措施,以便定制风险管理处方,以匹配正在实现的风险的潜在影响水平。 建议:制定标准以评估AI系统的风险水平和潜在影响。建立类别以区分AI系统构成的风险水平,并为每个类别制定适当的风险管理实践。 并非所有信息系统的妥协都会产生相同的风险或要求相同的安全级别。同样,并非每个AI系统都会带来相同的风险或要求相同的风险管理控制水平。OMB迈出了强有力的第一步 在最近发布的可能影响公众安全和权利的系统的最低合规做法中。18除了这些最低限度的做法之外 ,国会议员倡导的更彻底的NISTAIRMF标准目前是自愿的。19为了扩大RMF作为联邦机构和供应商的要求的使用,NIST将需要对其进行修改或创建具有强制性要求和评估的新标准文件。 此外,联邦政府应制定分类系统的标准,以便根据风险定制控制措施。OMB的指南确定了两类需要风险管理的人工智能系统: