您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[卡内基国际和平基金会]:设想全球政权综合体来治理人工智能 - 发现报告
当前位置:首页/行业研究/报告详情/

设想全球政权综合体来治理人工智能

设想全球政权综合体来治理人工智能

March2024 设想全球制度复杂的治理 Art社会情报 艾玛·克莱因和斯图尔特·帕特里克 设想全球制度复杂的治理 Art社会情报 艾玛·克莱因和斯图尔特·帕特里克 ©2024卡内基国际和平基金会。保留所有权利。 卡内基在公共政策问题上不采取机构立场;本文所代表的观点是那些作者(S)的观点,不一定要反映卡内基、其sta或其受托人的观点。 不得以任何形式或任何方式复制或传播本出版物的任何部分卡内基国际和平基金会的书面许可。请直接询问: 卡内基国际和平基金会出版部 1779马萨诸塞州大道西北 Washington,DC20036 P:+12024837600 F:+12024831840 CarnegieEndowment.org 可在CarnegieEndowment.org上免费下载。 Contents 缩写vii Introduction1 人工智能的崛起和治理它3 AI的制度复合体6 建立科学c理解8 制定标准和协调法规12 共享访问和Benets18 促进集体安全24 Conclusion30 关于作者33 Notes35 卡内基国际和平基金会47 缩写 AI-人工智能 CBM-CON信心建设措施 CERN欧洲核研究组织 EU-欧洲联盟 FATF-金融行动特别工作组 HLAB-联合国Art社会情报高级别咨询机构 IAEA-国际原子能机构ICAO-国际民用航空组织ILO-国际劳工组织 IMF-国际货币基金组织 IMO-国际海事组织 IP-互联网协议 IPCC政府间气候变化专门委员会LAWS-致命的自主武器系统LMIC-中低收入国家 NPT-《不扩散核武器条约》 vii OECD经济合作与发展组织 SDG-可持续发展目标 UN-联合国 UNEP-联合国环境规划署 UNESCO-联合国教育、科学和文化组织 UNICEF-联合国儿童基金会WHO-世界卫生组织WMO世界气象组织 Introduction 2023年春季,OpenAI联合创始人SamAltman、GregBrockman和IlyaSutskever 提出了“IAEA[国际原子能机构]用于超级情报的提议” 治理高性能系统,注意到超级智能的潜在起源 推进人工智能(AI)模型。1不久之后,联合国秘书长 安东尼奥·古特雷斯将军支持这个想法。2在接下来的几个月里,其他人建议建立一系列全球机构来规范这项技术, 基于政府间气候变化专门委员会(IPCC)和国际民用航空组织(民航组织)。3 不到一年后,对单一机构解决方案的搜索逐渐消失。 人工智能的表现过于多面性,相关行为者过于多样化,地缘政治 情况太复杂了,任何一个全球机构都无法独自解决。相反,许多人期望旨在推进和管理特定c用途和用途的重叠机构的出现 AI的影响。4说明这种思维转变的是联合国的初步报告 人工智能高级别咨询机构(HLAB),由39名专家成员和 2023年12月发布。5尽管该报告并未涉及全球之间的紧密联系人工智能治理机构应该是-以及是否应该有“单独的机构”或“机构网络”——它假定将有多个最终内容 这种治理安排的轮廓将反映几个功能要求,如 通过强大的公共和私人行为者的利益、价值观和能力折射与AI的未来息息相关。 11 由于这种人工智能治理的替代方法在政策讨论中获得了牵引力,一些 analyticalgapsremains.First,fewanalystshaveexplicitlyframmedtheexpectedgovernance 人工智能作为一个政权综合体的框架,更不用说努力解决这样一个复杂的机构设计。第二,尽管包括HLAB在内的各种利益相关者,列举了其他领域对特定政府的一系列制度类比- Nance函数,他们很少详细询问这些模型的相关性。6伊德,很少有专家探讨地缘政治动态,包括战略竞争,将塑造并可能限制管理人工智能的国际机构的创建。 工作文件旨在所有这些差距,并提醒决策者注意可能性、困境、以及可能在设计时出现的贸易-以及理想情况下寻求调和-多重 治理安排。 全球AI治理将不可避免地涉及一些碎片化。互联网的历史治理,包括关于政府适当监管作用的辩论,已经 阐明了美国、欧盟(EU)和 中国走向“市场驱动”、“权利驱动”、 分别为“状态驱动”模型。7虽然美国支持一个有限的政府- 互联网上的角色,并推迟到私营科技公司,以支持言论自由和技术创新,欧盟追求更大的监管 保护包括隐私在内的其他人权的角色,中国已经承担了完整的国家控制,具有广泛的审查和监视能力。 这些经历-以及达成多边共识的挑战-已经发挥了作用在全球舞台上,特别是在越来越有争议的选举中 国际电信联盟,一个联合国附属专门机构,其任务包括互联网监管。8类似的保证国内监管方法 人工智能已经很明显,预计将渗入新生的全球治理倡议- 在最终的制度复杂的意志中管理规范和监管碎片因此对推进全球人工智能合作至关重要。 当前关于全球AI治理设计的建议集中在几个方面 功能。9ispaper将这些合并为四个大类,以促进深入分析并探讨其相关制度类比的相关性。e的第一个功能是 为科学c和技术知识和信息提供权威平台 分享人工智能能力的最新状态及其潜在的rami阳离子。第二个是促进公众和公众负责任地使用人工智能的共同规范和标准 私人行为者,以及寻求协调国家监管方法。第三个是 支持尽可能广泛地访问和公平地分享来自AI的利益ts,特别关注中低收入国家的发展需求。 是通过建立阻止和应对命运的框架来促进全球集体安全-国家和非国家行为者对这些技术的使用,以及为任何人工一般情报的潜在出现带来的存在风险。 实现这些功能目标将需要一个复杂的制度,即多多边, 由几个机构和倡议组成,每个机构和倡议都涉及不同的成员团体。对于某些功能,可能需要建立全新的机构。更常见的是, 现有机构的任务和能力将需要调整和扩展到 让他们有人工智能能力。许多人工智能治理机构将是政府间的,成员资格仅限于主权国家;其中一些将有普遍成员- 船舶,而一些将是狭窄的,选择性的,在志同道合的微型框架国家。其他全球安排将有多个利益相关者,不仅涉及NA- 国家政府,也包括公司和民间社会行为者。最终,一些规范性承诺可能以具有约束力的国际法为基础,而其他承诺将继续存在自愿。 人工智能的崛起和治理它 人工智能的惊人进步及其在整个社会的整合已经离开了公共权威- 争先恐后地确保其开发和应用的安全性和透明度。10如果创新速度加快,治理挑战将变得更加严峻 令人生畏.11 尽管de的概念各不相同,但人工智能通常是指信息处理使用模型和算法从数据和其他输入中进行推断的系统 “生成的输出,如预测、内容、建议或决策,这些输出可以在u- ENCE物理或虚拟环境。“12e今天主要关注的焦点是基础 在大量数据上训练的AI模型,用于一系列任务,而不是而不是狭窄的应用。13ese模型促成了越来越复杂的- 生成AI,包括生成高质量文本、图像和视频的能力 从输入数据,并类似地响应文本和图像,包括通过像这样的聊天机器人 ChatGPT.14 AI的潜在好处-减轻贫困,改造医学,打击 气候变化,提高工人生产力,根除传染病,改善获得高质量的教育,加强地方政府的效率,等等 其他很多东西-都是显著的不能。15然而,值得注意的是,这些潜在的好处t吸引的较少将注意力作为国际治理的主体,而不是人工智能可能的危险。(可能会影响等 各国决策者在突出举措中的代表性不足 全球南方,那里的政策讨论倾向于更多地关注许多机会- AI为发展提供的纽带。)16 相反,全球北方的许多政策制定者和研究人员都强调了人工智能的po- 潜在风险。17这些担忧包括人工智能可能会促进政治干预和传播错误信息和虚假信息;18通过算法巩固歧视 bias;19实现专制政权的大规模监视;20加剧对隐私的侵犯私营公司;21在知识中产生大量工人的错位和失业 和数据密集型部门;22加剧全球不平等;23促进致命的传播自主武器系统;24降低生物武器和核武器进入壁垒;25 削弱网络空间安全;26加剧地缘政治竞争和大国风险 war;27破坏核威慑和战略稳定;28并加快一个 无所不知、无所不在、无所不能的“超级智能”,它的行为与人类创造者的利益。29 规范人工智能并管理其风险和机遇的大部分行动都将发生在国内层面。30欧盟、中国、美国和印度已经在追求 监管模式,具有不同的目标和执行机制。欧盟的人工智能法案, 2023年12月临时批准,3月欧洲议会通过 2024年,寻求保护“基本权利、民主、法治和环境” 可持续发展“而不妨碍创新。31它采用了“基于风险”的方法,如高风险的人工智能应用程序面临更严格的规则,特别是在透明度方面以及数据源、网络安全和安全测试的质量。32是高风险类别 尽管法国、德国和意大利对此表示担忧,但目前还包括基础模型关于稳定创新。33禁止的应用程序包括社交评分,情感识别 在工作场所和教育机构,以及生物识别分类系统。34(Law 执法部门仍然可以使用生物识别阳离子系统来解决狭窄的犯罪清单。)e规则具有法律约束力,不合规的方受nes的约束,尽管大多数 直到该法案生效两年后,条款才会生效。 中国还对公司实施严格的、有约束力的规定-包括尊重指定c组件,如算法、合成生成的内容和生成 AI.35与欧盟不同,其主要动机不是保护个人权利,而是发挥对中国社会的信息控制。36例如,中国的生成人工智能措施 2023年8月采取了一系列措施,试图限制聊天机器人“生产” 虚假有害信息”,包括与“颠覆国家政权”相关的内容。37然而,这些包含政治敏感内容的行为造成了很高的监管负担 对于公司。中国的政策制定者已经放松了一些规则及其强制执行措施- 以免它们成为行业创新和更广泛的经济竞争力。38 美国在生产法规方面进一步落后。它依靠自愿承诺和非约束性措施,以“负责任的无辜- vation。“392023年7月,乔·拜登总统的政府与7人达成协议领先的人工智能公司在“自愿保障”方面,包括安全测试和监控偏见和隐私风险。402023年10月,白宫发布行政命令 关于人工智能的安全、可靠和可信的开发和使用,a 值得注意的为先进的人工智能系统创建护栏的第一步。41尽管如此,行政命令主要指导政府机构准备关于人工智能的评估和建议 在他们的领域;强有力的美国监管将需要国会立法。42在平衡,美国目前的立场特权创新,与传统的尊重一致 私营部门,而欧盟优先考虑安全和权利。 最后,印度正在寻求在人工智能治理中发挥自己的作用,并推动一场争执- 全球南方国家的本土监管框架,鼓励国内 创新,同时保护公民安全。43该国最终AI的形式和内容法规仍不清楚,尽管印度政府的公共政策智囊团 2018年发布国家人工智能战略,电子和信息部 技术在2023年提出了“数字印度法案”,该法案侧重于AI,数据治理保护和网络安全。44 除了这些国内监管步骤之外,国际治理也将是至关重要的,因为 人工智能的全球覆盖范围和rami阳离子。尽管先进人工智能系统的发展芯片目前集中在少数几个国家,可以使用许多AI模型 不容易被限制在边界内。45因此,必须发展国际 关于人工智能开发和使用的道路规则,让政府和私人行为者 在他们的主权管辖范围内,对他们如何使用它负责,并创造后盾以防政府不能或不愿意履行其监管责任。 新兴的全球框架也必须符合既定的国际法, 规范和公约,包括《联合国宪章》、《世界人权宣言》权利、国际人道主义法和其他多边条约。 多边人工智能外交也相应加速。2023年10月,在IDC一带一路论坛,中国国家主席习近平宣布全球人工智能治理倡议。46不久之后,七国集团发布了广岛进程国际指南 组织开发高级人工智能系统的原则和相关代码- 管道(以下称为广岛行为准则)。472023年11月,美国 王国(英国)主办了首届世界人工智能安全峰会,28个国家同意委托专家领导的《科学状况报告》,以及其他成果。48 最近,在2023年12月,HLAB发布了中期报告,“治理AI人性”。49这些活动是建立在政府间机构早期工作的基础上的。作为经济合作与发展