2022年第8期(总第33期) REPORT 美欧数字外交研究系列之一: 美欧人工智能政策协调进程、挑战及启示 美欧数字外交研究系列之一: 美欧人工智能政策协调进程、挑战及启示 张丁、王星懿、汤文君、郑乐锋、董汀、孙成昊清华大学战略与安全研究中心美欧研究项目 2022年12月5日,美欧贸易和技术委员会(TTC)首次发布《可信赖人工智能和风险管理评估与测量工具联合路线图》(简称“联合路线图”),从术语规范、标准制定以及风险监测等三方面指导双方人工智能风险管理和可信赖人工智能发展,并促进相关国际标准的制定。本报告将主要探讨美欧在人工智能领域政策协调的背景、政策合作路线图、分歧以及相关启示。 一、美欧人工智能领域政策协调进程 2021年6月15日,美欧贸易和技术委员会(TTC)正式启动,并成立技术标准工作组,将人工智能等新兴科技领域的国际标准制定提上合作日程。在2021年9月第一次部长级会议后发布的联合声明中,美欧不仅再次申明双方对于发展可信赖人工智能的愿景,也表示要依照机构议程在部长级会议以外成立10个工作组,分别由美欧各相关机构牵头组织,聚焦开发人工智能等新兴技术领域标准制定的方法,应对技术滥用对安全和人权带来的威胁,其中专门提及在开发可信赖人工智能项目上增进合作。合作内容具体包括两方面:一是双方肯定彼此在人工智能风险管理框架制定的成果外,提出将致力于在可信赖和负责任的人工智能概念和原则层面达成共识,并有意在此基础上建立共同的测量和评估工具。二是双方在可信赖人工智能用于更好的机器学习、隐私保护技术研发及人工智能对未来就业的影响等方面也表 明合作意向。Ⓒ 2022年5月TTC第二次部长级会议之后发布的美欧联合声明显示,双方将工作组的合作深化到各职能机构的协同行动,为12月第三次部长级会议前希望达成的目标制定具体工作计划。工作组重点关注的,是如何在遵循诸如经济合作与发展组织(OECD)有关人工智能发展的原则建议等已有共识基础上,使其适应美欧各自的法律体系,并和《欧盟人工智能法案》、美国《人工智能权利法案蓝图》以及《人工智能风险管控框架》等内部政策倡议相结合。这一过程离不开美欧各有关机构的协作,美国国家标准与技术研究院(NIST)以及欧盟委员会正和欧洲各标准化组织(ESOs)协调行动,尝试在人工智能风险管理、评估与测量工具及发展可信赖人工智能的社会技术要求方面达成一致,以对抗其他“非市场经济体”日益上升的影响力。此外,双方进一步强调开发可互操作的方法,加大信息和资料库共享的程度。Ⓒ 在刚刚举行的第三次部长级会议后,TTC发布了新的联合声明, 整理了会议的主要成果。在发展可信赖人工智能方面,美欧发布了联合路线图,为双方在风险管理和可信赖人工智能方面合作提供指引,并推动国际标准制定;另外,双方还达成一项评估医疗卫生领域隐私保护技术应用的试点项目,同时在研究人工智能如何影响就业、极端天气和气候预测、能源等领域增进合作。在技术标准制定合作方面,美欧双方已推出5月联合声明中提出的战略标准信息机制(SSI),这将有助于使双方在标准化及战略性事件上保持信息共享和协同行动。 Ⓒ“US-EUTradeandTechnologyCouncilInauguralJointStatement”,TheWhiteHouse,September29,2021,https://www.whitehouse.gov/briefing-room/statements-releases/2021/09/29/u-s-eu-trade-and-technology-council-inaugural-joint-statement/. Ⓒ“US-EUJointStatementoftheTradeandTechnologyCouncil”,TheWhiteHouse,May16,2022,https://www.whitehouse.gov/wp-content/uploads/2022/05/TTC-US-text-Final-May-14.pdf. 二、美欧联合路线图主要内容 目前,以美欧各自已推出的相关法规、政策文件为蓝本,双方将基于共同价值观指导新兴技术发展,力求未来在风险监管方式等层面达成一致。 (一)在充分尊重既往成果的基础上谋求共识 在联合路线图发布之前,美欧双方各自已发布人工智能相关监管政策文件。美国出台了《人工智能风险管控框架》《人工智能权利法案蓝图》,欧盟则出台了《欧盟人工智能法案》。这些政策文件是双方进行协商的重要基础。联合路线图所构想的工作将与包括国际标准制定组织(ISO)、OECD和电气与电子工程师学会(IEEE)在内的国际组织的各项全球性工作保持一致,并参考美欧双方的既往成果和理念,综合推进可信赖的人工智能和风险管控。 谋求概念和术语的一致性。联合路线图指出,推进概念、术语在理解和应用层面相一致在有效风险管控方面具有重要意义,在基本术语层面达成一致将在制定标准和明确责任、实践和政策时提供可互操的分类法。TTC将着力推进包括但不限于以下概念和术语的一致性:风险、风险管理、风险容忍度、风险认知、可信赖的人工智能的社会技术特征。此前,欧盟曾指出成员国内部存在人工智能风险评估标准不一致、需要引入明确的人工智能风险标准等问题Ⓒ;美国国家标准与技术研究院则有明确的人工智能风险和可信赖度术语概念。联合路线 Ⓒ“RegulatorydivergencesinthedraftAIact:Differencesinpublicandprivatesectorobligations”,EuropeanParliamentaryResearchService,May2022,https://www.europarl.europa.eu/RegData/etudes/STUD/2022/729507/EPRS_STU(2022)729507_EN.pdf. “AIRiskManagementFramework:InitialDraft”,NationalInstituteofStandardsandTechnology,March2022,https://www.nist.gov/system/files/documents/2022/03/17/AI-RMF-1stdraft.pdf. 图对概念、术语的强调,反映了双方对这一问题共同的重视。 (二)寻求人工智能国际标准规则制定 国际技术标准制定、可信赖的人工智能和风险管理工具的开发和使用以及人工智能风险监测和评估,是影响全球人工智能领域规则解释、标准应用、新兴技术赋能、市场开发的核心要素,直接影响利益相关方和人工智能透明化、公开化、公正化、包容化发展进程。在这方面,联合路线图提出的具体举措如下: 在国际技术标准制定层面,联合路线图提出应共同遵守:一是人工智能国际标准中的需求、规范、测试方法和指南应与可信赖特征相关;二是人工智能国际标准的全球领导;三是美欧共同支持和领导国际技术标准制定工作;四是在与各自法律体系相一致的前提下,充分遵守世贸组织《技术性贸易壁垒标准》;五是鼓励广泛的利益相关方参与国际技术标准制定工作。 在开发可信赖的人工智能和风险管理工具层面,依据OECD对“工具”一词的定义,联合路线图提出:一是建立美欧共享指标和方法的数据库,评估人工智能可信赖度和存在风险;二是支持利益相关方针对可信赖的人工智能相关工具开展分析,分析结果用以支持国际技术标准制定。 在监测、评估已出现的和潜在的人工智能风险层面,联合路线图提出,TTC将推动建立人工智能前沿科学及其相关风险研究的知识共享机制,并明确具体实施步骤:一是基于现有背景条件、具体案例、影响和伤害数据,持续跟踪已出现的和潜在的风险和风险类别;二是测试和评估人工智能风险的可互操性。 (三)联合路线图的短期和长期目标 联合路线图明确了短期和长期目标,从标准制定、工具开发和风险监测与评估等方面建立双边合作机制开始,逐步拓展到在国际层面发挥引领作用: 短期目标 长期目标 推动建立具有包容性的合作渠道 建立3个专家组,分别负责国际技术标准制定、可信赖的人工智能和风险管理工具 为国际标准的使用和领导提供信息,举办相关专家研讨 的开发和使用以及人工智能 会; 风险监测和评估工作; 审查和评估进展,必要时更 制定每个专家组的工作计划; 新路线图; 制定利益相关方与专家组之 确定合作契机,分享经验成 间的协商计划,包括举行专 果。 家研讨会。 推动术语和分类法共享 实现包括但不限于以下概念和术语的一致性:风险、风 进一步加深对术语和分类法 险管理、风险容忍度、风险 的共同理解,并开展修订工 认知、可信赖的人工智能社 作。 会技术特征。 推动国际人工智能技术标准制定 开展美欧双方关心的标准的前景分析,评估各方对标准制定的参与度和贡献度; 组织国际标准制定论坛,并就已确定的项目开展合作; 完成双边关心的国际标准的 在共同关心的标准的制定和 制定; 应用方面与专家开展合作, 加强与国际标准制定机构的 并提供相应支持。 沟通交流。 开发可信赖的人工智能和风险管理工具 建立工具选择、纳入和修正程序;为相关工具建立评估标准。 明确增加到共享中心/数据库指标和方法;更新和维护共享中心/数据库。 推动监测、评估已出现的和潜在人工智能风险 根据工具使用情况,标记已出现的人工智能风险,建立跟踪办法,并尝试建立风险分类标准;确定对新出现的人工智能风险测试和评估方法。 通过对人工智能伤害事件的实证研究,建立风险分类标准和评估机制;针对新出现和潜在的风险进行理论预判。 三、美欧人工智能合作面临的挑战 美国过去许多分散和渐进式的人工智能监管政策在近几年正汇聚出积极变化。2022年2月,美国布鲁金斯学会发布的报告称欧盟和美国开始在人工智能监管领域趋同对标。Ⓒ自2021年9月召开的首次TTC会议将人工智能政策问题纳入重点讨论范围后,美国已开始启动监管引擎,招募人工智能治理专业人士,与欧盟开展更加积极主动的监管举措。这显示出拜登政府正趋向与欧盟相类似的人工智能监管目标,客观上将加强美欧在人工智能治理政策上的一致性。 此次TTC会议提出的路线图旨在为美欧跨大西洋人工智能风险管理和发展可信赖人工智能方法提供信息,并推进与人工智能相关的国际标准机构的协作方法。f为使欧盟和美国在基于风险的方法上保持一致,路线图提出的推进术语共享、领导国际标准和新型风险监测三项具体方案,是美欧推进人工智能合作监管的重要共识。然而,路线图也指出,对于风险管理制度的建立以及监管和自愿措施之间的适当平衡,欧盟和美国在如何应用监管技术方面仍有差距。具体表现为在风险评估的责任分配、建立风险管理系统的可能法律责任,还有风险评估的法律责任等监管问题上存在潜在分歧。此外,人工智能作为美欧跨大西洋技术合作的关键领域,双方合力推动可信人工智能和风险管理制度仍存在以下阻力。 第一,战略与理念冲突。一方面,美欧人工智能战略并不一致。 Ⓒ“TheEUandU.S.arestartingtoalignonAIregulation”,Brookings,Feburary1,2022,https://www.brookings.edu/blog/techtank/2022/02/01/the-eu-and-u-s-are-starting-to-align-on-ai-regulation/. f“EU-USJointStatementoftheTradeandTechnologyCouncil,EuropeanComission”,December5,2022,https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_22_7516. 对于开发人工智能及其监管工具,美国安全和外交政策机构将之视为大国竞争的重要国家安全资产,要使其成为拓展技术影响力的工具Ⓒ,但欧盟基于经济发展与民主价值观更关注人工智能技术的伦理挑战。此外,欧盟对减少技术依赖