您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[安永]:人工智能的全球监管格局(英) - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能的全球监管格局(英)

信息技术2023-09-29-安永S***
人工智能的全球监管格局(英)

人工智能(AI)全球监管格局 政策趋势和考虑因素建立对AI的信心 2023年9月 2//人工智能(AI)全球监管格局 人工智能(AI)全球监管格局//3 内容 背景4 6 7 11 作者和致谢15 16 前言 人工智能(AI)的开发和使用在全球范围内正在加速发展。因此,政策制定者,公司和其他利益相关者正在越来越紧迫地努力解决人工智能的整合方式,以提高其服务于重要经济和社会目标的潜力,同时降低风险。 安永团队致力于通过我们的三支柱战略,帮助开发负责任和值得信赖的人工智能使用的领先实践,我们将其统称为“改变安永、改变客户和改变世界”。EY团队最近在2022年修订了EYAI原则,并建议客户建立自己的道德AI治理框架。我们利用自己的数字伦理学家,IT风险从业者,数据科学家和主题专家来支持客户应对与AI相关的复杂道德挑战。 然而,安永团队认识到,没有公共和私营部门之间的合作,任何一个组织都无法安全、快速地应对这一水平的变化。最重要的是,政策制定者和标准制定者、私营部门和民间社会之间需要加强对话,以更好地理解和协调利益,缩小人工智能信任差距,防止政策碎片化,实现全部利益和潜力。 的AI。 本文旨在通过帮助不同的利益相关者社区更好地理解和评估八个主要司法管辖区(包括加拿大、中国、欧盟、日本、韩国、新加坡、英国和美国)快速发展的人工智能政策格局,促进这一进程。 最终,如果我们都能更好地了解情况,我们就可以更容易地为跨司法管辖区制定可比较和可互操作的规则做出贡献,帮助减少监管套利的可能性 ,并扩大促进积极使用人工智能的规则的潜力。更好地了解动态AI政策环境的公司也可以使其AI治理框架与监管机构的要求和期望保持一致。在他们开展业务的国家/地区,并以此建立对他们使用AI的信任和信心。政府官员,企业高管和其他利益相关者之间的持续参与可以 帮助我们所有人在监管与创新之间取得适当的平衡。 在当今充满活力的经济环境中,全球对人工智能的宏观经济前景非常乐观。人工智能有望成为全球经济增长、创新、社会变革和竞争力的关键驱动力。As 组织、政府和其他各种利益相关者在这些问题上走到一起,安永团队将继续专注于作为一个值得信赖的来源,并围绕不断发展的人工智能提供我们的观点。 政策格局。 胭脂红DiSibio 安永全球董事长兼首席执行官 4//人工智能(AI)全球监管格局 执行摘要 ToassesstheevolvingAIregulatorylandscape,EYteamsanalyzedtheregulatoryapproachesofeightjurisdictionsthathaveavitalroletoplayinthedevelopmentofrulesfortheuseofAI.Thesejurisdictionswereselectedon 他们围绕人工智能主题的立法和监管活动的基础及其更广泛的市场覆盖面。它们包括加拿大、中国、欧洲联盟(欧盟)、日本、韩国、新加坡 、英国(英国)和美国(美国)。规则和政策倡议来自经济合作与发展组织(经合组织)人工智能政策观察站1根据安永团队的分析,我们确定了决策者和公司在努力增强对人工智能使用的信任时需要考虑的五个关键监管趋势。 五大监管趋势 所研究的八个司法管辖区对AI政策采取了一些截然不同的方法,反映了一般监管和AI监管的不同文化方法。然而,在存在一致目标的情况下,它们遵循相同的一般主题:减少人工智能的潜在危害,同时促进人工智能用于其公民的社会和经济利益。根据这一共同目标,我们的审查确定了这些司法管辖区如何处理人工智能监督的五个共同趋势: 1.正在审议的人工智能法规和指南符合经合组织定义并得到二十国集团认可的人工智能核心原则2其中包括尊重人权、可持续性、透明度和强有力的风险管理。 2.这些司法管辖区正在采取基于风险的方法来进行AI监管。这意味着他们正在根据AI的感知风险来调整其AI法规,以实现隐私,不歧视,透明度和安全性等核心价值。 3.由于人工智能的用例各不相同,一些司法管辖区除了关注与行业无关的监管外,还关注对特定行业规则的需求。 4.司法管辖区正在其他数字政策优先事项(如网络安全,数据隐私和知识产权保护)的背景下进行与人工智能相关的规则制定-欧盟采取了最全面的方法。 5.这些司法管辖区中的许多都将监管沙箱用作私营部门与政策制定者合作的工具,以制定符合促进安全和道德AI的核心目标的规则,并考虑与AI相关的高风险创新的影响。 人工智能(AI)全球监管格局//5 对政策制定者和公司的影响 决策者 本报告中确定的五个趋势可以为政策制定者制定人工智能开发和使用规则提供有用的见解。安永团队认为,这些趋势代表了平衡法规的合理方法,这些法规可以提高对人工智能使用的信任,同时鼓励负责任的创新。 除了确定的趋势外,人工智能政策制定中需要考虑的其他因素包括: 1.他们是否有足够的知识来制定政策,监管机构是否有资源来监控和执行政策,受监管实体是否有足够的知识来实施这些政策 2.规则制定的目的是监管由技术本身(例如,自然语言处理或面部识别等属性)或人工智能技术的使用方式(例如,人工智能在招聘过程中的应用)引起的风险,还是两者兼而有之 3.是否将风险管理政策和程序以及合规责任扩展到提供AI相关产品和服务的第三方供应商 此外,政策制定者应尽可能参与多边进程,使各司法管辖区之间的人工智能规则具有互操作性和可比性,以最大限度地减少与监管套利相关的风险——在考虑管理使用人工智能等跨国技术的规则时,这一点尤其重要。 Companies 对于公司来说,了解人工智能规则的核心原则,即使这些规则目前可能不适用于他们,也可以帮助客户和监管机构在使用人工智能时灌输信任,从而有可能提供 它还可以帮助公司预测可能适用于其开发和使用AI的治理需求和合规性要求,使其更加敏捷。 根据已确定的趋势,企业现在可以采取一些行动,以保持领先于快速发展的人工智能监管格局。首先,他们可以理解在他们运营的市场中有效的人工智能法规。他们可以将其内部AI政策与这些法规和任何相关的监管标准保持一致。其次,公司可以建立强大而清晰的治理和风险管理结构和协议,并在适当的情况下建立问责机制,以加强对人工智能技术的管理。第三,公司可以与公共部门官员和其他人进行对话,以更好地了解不断变化的监管环境,并提供可能对决策者有用的信息和见解。 6//人工智能(AI)全球监管格局 五大监管趋势 以下部分提供了对安永团队在审查的八个司法管辖区采取的人工智能方法的审查中确定的关键趋势的更深入的见解。 趋势1:经合组织的人工智能原则成为人工智能指导决策者的全球基准 经合组织和20国集团(G20)于2019年通过的人工智能原则是帮助政府和组织制定以人为中心的可信人工智能方法的全球基准。3经合组织的原则是在2016年开始的关于人工智能使用应遵循的核心道德原则的公开讨论之后制定的。所有八个受审查的司法管辖区都致力于经合组织的原则,这些原则涵盖了诸如确保人工智能的好处在整个社会中广泛传播,人工智能不会破坏诸如保护人权等社会保障措施以及使用人工智能的组织具有适当的治理和问责制。 图1:经合组织人工智能原则和对各国政府的建议摘要 OECDAI原则 经合组织对各国政府的建议 人工智能应该通过推动包容性增长、可持续发展和福祉来造福人类和地球。 促进公共和私人对研发的投资,以刺激值得信赖的人工智能的创新。 人工智能系统的设计应尊重法治、人权、民主价值观和多样性,并应包括适当的保障措施,例如,在必要时允许人为干预,以确保社会公平公正。 通过数字基础设施和技术以及共享数据和知识的机制,促进可访问的AI生态系统。 围绕人工智能系统应该有透明度和负责任的披露,以确保人们了解他们何时参与其中,并可以挑战结果。 创建一个策略环境,为部署值得信赖的AI系统开辟道路。 人工智能系统必须在其整个生命周期中以稳健,安全和安全的方式运行,并且应不断评估和管理潜在风险。 为人们提供AI和支持人员的技能,以确保公平的过渡。 开发、部署或操作人工智能系统的组织和个人应根据上述原则对其正常运行负责。 跨境和跨部门合作,共享信息,制定标准,并致力于负责任地管理人工智能。 司法管辖区已经采取的决策举措符合这些原则。例如,欧盟和加拿大的未决立法将对人工智能高风险应用的风险和数据管理提出强制性要求 ,例如将人工智能用于关键基础设施或招聘决策。 这些要求与经合组织的问责制和健壮、安全和安全使用人工智能的原则一致。欧盟也超越了经合组织的原则,为完全禁止的人工智能应用规定了“红线”。例如,欧盟决策者提议禁止在面部识别等领域使用人工智能 在公共场所。英国、日本和新加坡等其他司法管辖区专注于为行业提供基于经合组织原则的指导,而不是采用具体的法规。虽然中国不是经合组织国家,但经合组织原则为包括中国在内的二十国集团领导人于2019年6月批准的二十国集团人工智能原则提供了基础。4 在美国,联邦政府正在采取深思熟虑但有节制的措施。例如,主要的联邦官员表示,现有的法律和法规已经为解决偏见、欺诈、反竞争行为和其他由人工智能引起的潜在风险提供了重要的权力。与此同时,联邦政策正在考虑在现有当局可能不足以解决人工智能潜在风险的情况下采取额外措施。例如:。 •本届政府为人工智能权利法案制定了蓝图,该法案反映了经合组织的许多核心原则。 •美国国家电信信息管理局(NationalTelecommunicationInformationAdministration)就如何利用审计和保证来促进对人工智能的信任发表了公开的“征求意见”。 人工智能(AI)全球监管格局//7 •白宫科技政策办公室(OSTP)也发出了类似的要求,要求更新美国国家优先事项和未来与人工智能相关的行动,并正在通过美国国会在2020年设立的国家人工智能倡议办公室协调联邦政府的大部分工作。 •此外,OSTP宣布将发布“国家人工智能研究和发展战略计划”,旨在鼓励人工智能发展,“促进负责任的美国创新,服务于公共利益,保护人民的权利和安全,维护民主价值观”。 虽然美国国会中的一些人主张立法建立一个单独的机构来监管人工智能,但目前国会通过任何重要的新法律的前景仍然相当不确定。美国各州政府也在围绕人工智能制定新的法律。在2023年州立法会议期间,已经审议了数十项法案,其中一些法案已成为法律。5 趋势2:政策制定者正在采用基于风险的AI方法 审查的每个司法管辖区都专注于将人工智能原则转化为实践。虽然他们的方法可能从自愿指导到强制性规则,但每个司法管辖区都在追求基于风险的人工智能方法。2023年4月,七国集团(G7)数字和技术部长对人工智能表达了统一的看法,呼吁人工智能政策和法规应“基于风险”。这种方法需要根据特定的人工智能相关活动所带来的风险来调整或调整法规,以在降低风险的同时鼓励负责任地开发和使用人工智能。这种方法还使政策制定者能够对快速发展的人工智能创新做出更好的反应,使他们能够在风险和回报之间保持这种关键的平衡。 基于风险的方法根据AI系统的预期用途及其风险状况分配合规义务。这种基于风险的方法的主要好处是,它可以进行早期监管干预,同时使合规要求和成本与潜在的负面影响成正比。 在我们的审查中确定的基于风险的方法的一些主要例子包括欧盟的AI法案6加拿大的AI和数据法案7拟议的两项法案都使用风险和影响评估将人工智能系统划分为不同的合规义务类别。最详尽的合规要求适用于那些被归类为高风险的系统,而被归类为没有发布任何重大风险的人工智能系统不需要遵守这些法案规定的义务。像美国这样的国家也在支持基于风险的人工智能方法。 通过制定自愿性AI风险管理框架标准进行治理,以帮助组织将可信度考虑因素纳入其AI。8下图突出显示了这些国家在采用监管与指南方法进行人工智能治理方面的相对定位: more 图2:AI规则制定的方法 Canada China EU UKKo US ea日本新加坡 更 法律法规 更少指导方针