2023年第6期(总第9期) 国际智库及媒体对人工智能国际治理动态分析 国际智库及媒体对人工智能国际治理动态分析 编者按:为推进人工智能与国际安全领域的相关研究,清华大学战略与安全研究中心(CISS)组织研究团队定期跟踪最新国际研究动态,重点关注人工智能应用对国际安全带来的风险挑战,并针对人工智能安全领域国际动态、智库报告、学术论文等资料进行分析。本文是CISS推出的人工智能与国际安全研究动态第9期,主要聚焦国际智库及媒体对人工智能国际治理动态分析。 1、Politico:人工智能应实现国有化 8月20日,美国Politico杂志刊登大西洋理事会高级研究员查尔斯·詹宁斯的文章《控制人工智能的方法只有一种:国有化》。文章认为,当前人工智能算法已经成为了“黑箱”,即使是专业科研人员也难以理解人工智能算法的全部规则,这意味着人工智能很有可能失控,或被犯罪分子滥用。但目前来看,美国国会对人工智能技术了解有限且立法进展缓慢,即使有相关的透明度与监管立法出台,也难以彻底监管人工智能算法的“黑箱”。因而对人工智能产业进行国有化是当前最佳的选择。美国应借鉴对核产业国有化的经验来对人工 智能产业进行国有化,从各大互联网巨头处赎买其现有的人工智能模型,交由特定的政府委员会统一管理,并由该委员会统筹人工智能产业的投资与发展,最终确保人工智能产业的发展将为社会带来益处。https://www.politico.com/news/magazine/2023/08/20/its-time-to -nationalize-ai-00111862 2、《报业辛迪加》:人工智能需要“帕格沃什运动” 7月24日,《报业辛迪加》杂志刊登美国务院前政策规划主任安妮-玛丽·斯劳特与互联网名称与数字地址分配机构前主席法蒂·切哈德的文章《AI的帕格沃什运动》。文章提到,1957年来自美国、苏联等十个国家的22位科学家齐聚加拿大的帕格沃什,创立了帕格沃什科学和世界事务会议,其主旨是推动核裁军并预防核冲突。该组织最终于1995年获得了诺贝尔和平奖,当前人工智能也需要一个“帕格沃什运动”。首先,人工智能的“帕格沃什运动”应根植于已有的人工智能治理框架,如美国的《人工智能权利法案蓝图》、联合国教科文组织的《人工智能伦理建议书》等,以上述框架为蓝本进行构建。其次,人工智能的“帕格沃什运动”应注重于协调各利益攸关方,建立“网络化的多边主义”,将国际组织、国家、企业、学术机构、非政府机构等多主体纳入进来,以确保相关措施的广泛实施。最后,人工智能的“帕格沃什运动”应着手建立一个多核心的机构网络,正如互联 网领域有不同机构负责制定网络标准、分配数字地址、协调利益相关方等工作,也应有多个机构来负责不同方面的人工智能治理,进而确保人工智能治理的稳定性和韧性,并有助于应对来自特定国家的政治压力。 https://www.project-syndicate.org/commentary/institutions-to-govern-artificial-intelligence-new-pugwash-movement-by-anne-marie-slaughter-and-fadi-chehade-2023-07 3.《报业辛迪加》:生成式人工智能正在影响选举公正 8月10日,《报业辛迪加》杂志刊登前斯坦福大学网络政策中心的主任凯利·伯恩的文章《生成式人工智能会成就或破坏民主吗?》。文章指出,虽然生成式人工智能为在医学、工业、政策、教育等领域提供巨大的机遇,但同时将为选举过程带来巨大的挑战与不确定性。首先,人工智能可能导致选举过程中的偏见。如美国正使用人工智能系统来维护和更新各州的选民名册,但当前的算法难以识别亚裔选民的名字,也难以识别亚裔等少数族裔选民的签名。其次,生成式人工智能将降低选举的竞争性。目前约90%的美国国会选区被认为是“铁票仓”,即通常稳定地归属于民主党或共和党。生成式人工智能可以帮助立法者划定选区,进而使执政党进行更具压制性的选区划分,减轻执政党所面临的竞争性与挑战。最后,生成式人工智能将促进选举虚假信息的网络传播。生成人工智能可以利用公开的图片与音像资源,并针 对不同的受众群体生成多语种的虚假宣传,进而改变选举政治的“游戏规则”。 https://www.project-syndicate.org/commentary/generative-ai-could-test-democracies-by-kelly-born-2023-08 4.布鲁金斯学会:隐私立法有助于人工智能治理 7月7日,美国布鲁金斯学会网站刊登其技术创新中心访问学者卡梅隆·克里的文章《隐私立法如何帮助解决人工智能问题》。文章认为,虽然当前不同国家的监管规则不尽相同,但隐私立法所倡导的算法透明度、问责制和公平性原则是大多数人工智能治理框架的共同点,故加强隐私立法将从多方面助力人工智能治理。首先,隐私立法有助于解决人工智能的偏见问题。只有确保训练所使用数据的来源、质量和道德使用都是无偏见的,并严格规定可以使用的数据类型与范围,最终构建的人工智能模型才有可能是无偏见的。其次,隐私立法有助于确立人工智能相关的术语规范。美国的隐私立法将“处理个人数据”定义为“使用机器学习、自然语言处理、人工智能技术或其他类似或更高复杂性的计算处理技术,并就个人信息做出决策或促进人类决策的计算过程”,该定义为人工智能治理框架的术语构建提供了模板。最后,隐私立法有助于增进人工智能的透明度。美国的隐私立法详细说明了必须披露的收集和使用个人信息及其隐私 惯例的情况,以及基于此类数据的算法决策信息,包括此类使用和决策的性质以及它们所基于的数据和逻辑等。https://www.brookings.edu/articles/how-privacy-legislation-can-help-address-ai/ 5.《卫报》:古特雷斯呼吁建立人工智能监管机构 7月18日,英国《卫报》网站刊登《卫报》全球技术编辑丹·米尔莫(DanMilmo)、科技记者希巴克·法拉赫(HibaqFarah)的文章《联合国秘书长表示,恶意使用人工智能可能会造成“难以想象”的损害》。文章关注,联合国秘书长安东尼奥·古特雷斯(AntónioGuterres)表示,恶意使用人工智能系统可能会造成“可怕”的死亡和破坏,呼吁建立类似于政府间气候变化专门委员会(IPCC)的新联合国机构以应对人工智能构成的威胁。古特雷斯称,将人工智能用于恐怖分子、犯罪或国家目的的有害使用可能造成“深刻的心理伤害”,当前,基于人工智能的网络攻击已经瞄准了联合国维和与人道主义救援行动。古特雷斯呼吁按照政府间气候变化专门委员会的方式建立一个新的联合国实体以应对风险,并称该机构的首要目标是支持各国最大限度地发挥人工智能的好处,减轻现有与潜在的风险,建立和管理国际商定的人工智能监测与治理机制。 https://www.theguardian.com/technology2023/iul/18/malicious-use-of-ai-could-cause-huge-damage-savs-un-boss 6.Politico:西方争论是否邀请中国参与英国首届人工智能安全峰会 8月25日,美国Politico网站刊登本站记者文森特·马南古(VincentManancourt)、汤姆·布里斯托(TomBristow)、劳里·克拉克(LaurieClarke)的文章《尽管遭到盟友的反对,中国仍有望参加英国人工智能峰会》。文章认为,尽管遭到日本、美国与欧盟的共同抵制,英国政府仍决心以某种形式让中国参与11月初举办的人工智能安全峰会。英 国计划于11月初召开全球首届人工智能安全峰会,峰会将重点关注最先进的人工智能,即前沿模型。英国方面希望人工智能安全峰会的基础尽可能广泛,因此不希望将世界上最先进的科技强国之一的中国拒之门外,并认为排除中国可能会加速全球人工智能领域的分裂。日本方面则认为,在民主国家尚未就人工智能治理达成共同立场的情况下让中国参与峰会为时过早,并提出一项让中国参与的替代方案,即通过七国集团(G7)与中国举行部长级会议。目前美国国家安全委员会发言人艾德丽安·沃森(AdrienneWatson)已表示,美国对中国参加峰会没有意见。欧盟内部对该问题仍存在分歧,尽管欧盟委员会拒绝邀请中国,但欧盟人工智能规则关 键谈判代表德拉戈斯·图多拉切(DragoşTudorache)认为中国应该参与谈判。 https://www.politico.eu/article/china-likely-at-uk-ai-summit-despite-pushback-from-allies/ 7.新美国安全中心:中美竞争与人工智能的军事化应用 2023年7月18日,新美国安全中心(CNAS)发布其“印太安全研究项目”与“人工智能安全与稳定项目”的阶段性成果,报告题为《中美竞争与人工智能的军事化应用:美国应如何管控与中国的战略竞争与风险》。首先,该报告分析了目前中国的人工智能发展战略,以及人工智能在中国实现军事现代化进程中的角色。其次,报告认为随着人工智能军事化的应用,或将增加美国的战略风险并降低中美间的战略稳定性,并具体梳理出以下五类路径:一是人工智能的军事化应用,可能将使得中国军事能力相对提升,并改变地区内的军事实力平衡;二是人工智能在决策与信息生成、获取发挥的负面影响,如压缩决策时间、产生错误信息、生成虚假信息等,这将使得决策者做出错误决策,增加战略风险;三是人工智能无人自主系统的军事化应用,可能将使得战争的人员伤亡成本降低,从而将提升战争爆发风险;四是人工智能在情报、监视和侦察方面的应用,将提升彼此军事透明度,使已开发或部署武器的生存机会降低,从而降低反击或报复能力,从而将提升战争风险;五是人工智能在指挥、控 制与通讯的军事化应用,可能将增强网络战与电磁战的攻击能力,同时也增加了向对方用于训练的数据集“投毒”的风险。最后,报告针对美国应如何管控战略风险提出了三条建议:一是有针对性地遏制对手,并提升自身能力;三是采取单边负责任的管控策略,将评估人工智能的安全性与可靠性作为重点发展方向;三是借助双边和多边外交手段,通过定期沟通、交流、谈判达成协议等方式,交换各方意见,增强战略互信,降低战略风险。 https://s3.us-east-1.amazonaws.com/files.cnas.org/documents/FINAL4.pdf?mtime=20230718160443&focal=none 8.麻省理工科技评论:人工智能影响政治的六种方式 7月28日,美国麻省理工科技评论网站刊登政策研究文章《人工智能影响政治的六种方式》。文章指出,由人工智能驱动国内政治的新时代可能即将到来,而公众担心的是生成式人工智能将影响公众政治偏好、并可能介入法律制定与审查等。作者认为,生成式人工智能影响国内政治的具体方式包括:一是立法机关或机构接受由人工智能产生并以其名义提交的证词或意见;二是由人工智能撰写的新的立法修正案被正是接受;三是在民意调研中,人工智能生成的政治信息取代竞选顾问的建议;四是人工智能创建了一个拥有自己纲领的政党,吸引候选人并赢得选举;五是人工智能自主创 造盈利,并资助政治竞选;六是人工智能可在多个辖区间进行政策协调。https://www.technologyreview.com/2023/07/28/1076756/six-ways-that-ai-could-change-politics/ 9.国际隐私专业协会(IAPP):全球人工智能监管执法概述与企业应对 8月2日,国际隐私专业协会(IAPP)发表了由缅因大学法学院研究生威廉·辛普森(WilliamSimpson)的文章《世界各地的人工智能监管执法概述》。文章在分析了世界主要国家的人工智能监管机制后,为企业提出了多条建议。美国以联邦贸易委员会作为默认监管机构,在人工智能行业导向方面干涉力度较低,侧重技术应用和流程监管,多