您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[卡内基国际和平基金会]:人工智能政策的国家以下各级做法 : 工作指南 - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能政策的国家以下各级做法 : 工作指南

人工智能政策的国家以下各级做法 : 工作指南

+ 2023年12月 人工智能政策的国家以下各级做法 :工作指南 伊恩·克劳斯和本·波尔斯基 , 人工智能(AI)政策和框架在国家,国际和超国家级别以及国家以下级别迅速发展。人工智能政策是一个发展中的领域,这个“工作指南”寻求建立关键领域和概念,以得出结论。但即使是现在,正在进行的工作也出现了国家以下一级的一些显著趋势。 首先,尽管在过去的十年中,国家以下各级官员的外交参与激增,国家以下各级外交实践的改进,以及城市和州在全球舞台上的知名度增加,但这些实践并未转化为人工智能政策空间。国家以下各级官员正在转向国家和国际框架,以指导他们制定各自的人工智能政策,但他们尚未对这些框架产生影响。在这里,这些官员可以从专家和决策者的经验中吸取重要的教训,他们专注于气候变化,民主和可持续性问题,并将当地的观点和解决方案纳入国际论坛和协议。 其次,国家以下司法管辖区本身正在采用广泛的人工智能方法,尽管国家以下、国家和国际行为者尚未在人工智能政策问题上建立结缔组织。尽管国家以下司法管辖区通常具有相似的目标,并在现有政策的基础上发展,但它们对技术的参与程度却大不相同。一些城市正在尝试使用AI进行交通管理,聊天机器人进行服务交付以及公众评论和参与分析。其他国家,如洛杉矶,正在进行广泛的内部利益相关者咨询。包括西雅图在内的其他国家正在通过与城市居民的广泛接触来完善现有政策。当然,有些人仍然处于观望状态。 第三,在参与的范围内,大多数国家以下司法管辖区都参与了密集的知识收集活动,以寻求更好地了解技术及其对服务交付和政策优先事项的可能影响。这些努力包括创建用例清单,开发沙箱和新的风险 CARNEGIEENDOWMENTF或国际豌豆CE + 框架,并与外部机构建立伙伴关系。这些努力将影响未来几年的政策,但在大多数情况下,它们专注于政府自身对技术的使用。对于社会和经济中可能发生的更大的,潜在的地震变化,仍然存在一系列更大的问题。 第四,也是最后一点,可以从以前与气候变化和住房等其他问题有关的国家以下各级决策框架中吸取重要的教训。特别是,气候变化的对话通常集中在风险和随之而来的缓解风险的选择上,而住房越来越多地考虑了基于权利的方法。由于有关人工智能风险的知识仍处于起步阶段,目前正在建立,与数据和技术相关的权利制度在不同的司法管辖区、城市、州和省份之间存在差异,因此在基于风险和权利的框架之间来回切换,试图锚定其新兴方法。 尽管国家以下各级的决策机制和当局因国家背景而异,但政策实践开始在州/省和市一级出现,与技术本身的一系列参与也是如此。本“工作指南”旨在捕捉其中一些做法,以及为其发展提供信息的过程和理念。它在某种程度上代表了由卡内基加利福尼亚和巴塞罗那国际事务中心(CIDOB)共同主办的一系列讲习班的经验教训 。这些讲习班包括工业界,民间社会以及加利福尼亚州和犹他州的高级官员的参与;加泰罗尼亚地区;洛杉矶,卡尔斯巴德,长滩,西雅图,波士顿和巴塞罗那,以及欧洲城市和美国市长会议。 目标和实践概述 2022年,公众对大型语言模型(LLM)带来的新功能 (如生成人工智能)的关注激增,加快了政策创新的需求并加快了步伐。城市、州、省和地区已经与人工智能合作多年,许多城市在隐私和数据使用方面制定了完善的政策。LLM和AI可用于内容创建,自然语言生成和创造性任务,已将AI应用程序的视野扩展到传统的基于规则和分析功能之外。 地方司法管辖区在围绕大数据和人工智能制定政策和治理方面拥有十年的经验。其中一些政策适用于新形式的人工智能,但政治背景和政策制定过程已经发生了根本性的变化,技术也是如此。关于决策,我们已经实现了四个广泛的目标和一系列不断发展的实践。尽管目标是广泛共享的 ,但参与程度和推进这些目标的离散方法差异很大。 目标 •增加效率政府服务提供和公共信任在里面; •Promoting公平、透明和防止偏见在AI的部署和使用中; •影响力行业,并与模型和应用程序提供商建立可预测的互动;以及 •开发或维护各自的地理位置,作为有吸引力的地点 与AI相关的经济机会. 2 Practices •建设和适应现有的AI使用策略,特别是围绕隐私和数据,同时认识到这些政策将随着技术的发展而发展; •灌输可解释性和问责制在人工智能系统中,通过“ 人在循环中”的设计和利益相关者的参与; •使用采购购买力-包括与其他司法管辖区集体行动-以及责任制度影响行业,更广泛地塑造人工智能的市场和部署; •建立内部专业知识和外部专家伙伴关系审查官员使用的申请或模型;和 •增强知识使用潜在AI用途和影响的“清单”和“沙箱”来测试技术,并在某些情况下开发新的风险和收益清单和框架,以了解和跟踪影响。 在国家以下一级,新兴方法具有实验性,创新性,甚至是混乱的多元化,在这里绝不是全部捕获。各国政府以不同的速度和不同的优先顺序参与这些类别。因此,与人工智能存在广泛的接触,从积极的技术实验到广泛的内部利益相关者咨询,到对现有政策的微小改进,再到完全观望模式。 新兴的国家,国际和超国家方法 国家以下各级人工智能决策是在制定国家、国际和超国家框架和法规的背景下进行的,尽管速度往往较慢。各国政府正在领导灾难性风险和国家安全人工智能政策相关问题。他们很有可能还将领导选举进程和廉正的相关问题。这些政策和框架对国家以下各级的政策制定者很重要,他们为自己的决策寻求广泛的指导,标准制定,甚至道德框架。虽然这种发展中的人工智能治理制度不能被完整地捕获,但下面引用了一些基本的国家、国际和超国家框架。 国家政策 斯坦福大学的以人为中心的人工智能研究所(HAI)发现,自2016年以来,各国通过了123项与人工智能相关的法案。 •中国已经实施了一系列具有约束力的法规,以规范AI的特定应用,包括算法推荐,合成内容和生成AI。这些方法不仅源于中国政府对信息控制的需求,还源于其对人工智能其他社会经济影响的渴望,例如对隐私、劳动力市场和反垄断的影响 。在实施这些法规的过程中,中国正在建设其官僚和监管能力,以应对即将到来的人工智能爆炸 。 CARNEGIEENDOWMENTF或国际豌豆CE3 + •美国在很大程度上通过行政命令(EO)推进了人工智能政策,包括2020年《促进使用值得信赖的人工智能》;2022年《人工智能权利法案蓝图》;以及2023年《关于安全,可靠和值得信赖的人工智能开发和使用的EO。最新的EO要求正在开发对国家安全,国家经济安全或国家公共卫生和安全构成威胁的模型的公司通知政府并分享所有红队安全测试的结果。在一系列授权报告中,EO寻求为关键基础设施制定标准,以确保安全、可靠和有效的人工智能。然而,无论这项法令多么广泛和雄心勃勃,都没有得到国会具有约束力的法规的补充。 •英国2021年人工智能战略和2023年政策文件“人工智能监管的创新方法”概述了英国政府为保持和巩固该国作为人工智能中心的地位所做的努力 。与其他方法(包括欧盟(EU)AI法案)相比,该战略并未将规则或风险级别分配给整个部门或技术。相反,它根据AI可能在特定应用程序中产生的结果进行监管,重点是防止存在风险。 国际框架和政策 越来越多的国际论坛正试图推进人工智能治理的全球框架。这些机构包括联合国人工智能高级咨询机构、美欧贸易和技术理事会、全球人工智能伙伴关系(GPAI)和经济合作与发展组织(OECD)。这些国际组织寻求为全球AI创建一个框架。 制定政策,建立规范,减轻风险,并激发私营部门和公共部门之间负责任的合作。包括卡内基国际和平基金会 ,GoogleDeepmid和世界经济论坛在内的许多组织也提出了全球AI治理框架。例如,卡内基基金会的一项提案呼吁成立一个新组织,即国际人工智能安全小组(IPAIS) ,以应对最紧迫的人工智能治理挑战——安全和安保 。该组织受到政府间气候变化专门委员会(IPCC)的启发 ,将对当前的人工智能能力以及相关的安全和安保风险有深刻的技术理解。围绕人工智能全球治理和领导力的一系列努力仍在迅速发展。 •今年5月,七国集团领导人建立了“广岛人工智能进程”,讨论围绕人工智能的问题。该过程将包括与GPAI和OECD的基于项目的合作,以在全球范围内推广安全,可靠和可信赖的AI。10月,该过程为开发和使用最先进的人工智能系统(包括最先进的基础模型和人工智能系统)的组织制定了指导原则和行为准则。 •11月,英国召集了国际政府,领先的AI公司 ,民间社会团体和专家参加了世界上首届全球AI安全峰会。在由此产生的《Bletchley宣言》中,签署国同意集体研究前沿AI模型的风险,以减少潜在的故意滥用或意外问题。 •2019年,非洲联盟成立了一个工作组,负责制定非洲对人工智能的共同立场,制定能力建设框架,并建立人工智能智囊团。 4 2022年,非盟新兴技术高级别小组重申,需要一项大陆人工智能战略,使非洲国家能够协调决策,利用人工智能采用的好处,并减轻损害。 超国家政策 欧盟的AI法案于2021年推出并于2022年通过,规范了欧盟成员国内部的AI。该法案鼓励开发符合欧洲价值观的人工智能技术,强调道德人工智能部署的重要性,同时促进欧盟人工智能领域的创新和竞争力。它概述了高风险人工智能系统的规则,包括对透明度、数据质量和人类监督的强制性要求。该法案根据AI应用程序构成的潜在危险将AI应用程序分配到三个风险类别:不可接受的风险应用程序,高风险应用程序以及有限或低风险应用程序。它禁止对安全和基本权利构成最大风险的AI应用程序。重要的是,执法在于国家政府,而不是地方政府。国家以下的参与者通过像欧洲城市这样的网络和像地区委员会这样的平台,在围绕该法的政策过程中发挥了很大的咨询作用。 现有的国家以下各级政策 地方政府正在迅速采取行动,采用或调整围绕人工智能的既定框架和政策。许多人,但不是所有的人,在国家同行之前采取行动。在如何利用或监管人工智能方面,没有统一的方法,次级国家处于政策制定的不同阶段。不同的地方司法管辖区,特质和多样化,以不同程度的舒适和恐惧,焦虑和兴奋来对待AI。“在这一范围内,次级国民采取了各种行动,范围广泛。 从临时指南和内部IT政策到EO和立法。 正如CIDOB城市人工智能地图集所证明的那样,城市是规范人工智能使用、开发和应用的城市举措的地图和存储库,城市是测试技术效益和通过政策创业来降低风险的沃土。该地图集追踪了63个城市的165项举措,显示尽管许多城市都在AI用例上进行创新,但很少有总体策略。然而,数百个城市确实有现有的隐私、大数据,甚至机器学习政策。其中许多政策是通过合作和网络制定的。例如,城市数字版权联盟(CDDR)于2018年由阿姆斯特丹,巴塞罗那和纽约市发起。它现在包括全球50个城市,目标是“促进和捍卫数字权利”,以“确保公平,包容,可访问和负担得起的非歧视性数字环境”。“在2022年AI飞跃之前,CDDR不是针对AI的,但它确实专注于AI政策问题集中的政策问题,包括数据隐私,偏见和算法透明度。许多城市,包括美国S.技术中心正在向CDDR寻求人工智能政策的指导。 城市从业者一直在研究州和国家法规的指导,同时寻求通过道德原则和地方一级的经验教训来影响框架。作为国家以下的司法管辖区,城市,州,省和地区共享许多相同的政策杠杆和目标,因此在下面引用的示例中被分组在一起。 •阿姆斯特丹,2020年:阿姆斯特丹的数字城市议程指定了三个目标:负责任地使用数据和技术 ,打击数字不平等以及服务的可访问性。数字城市议程包括有关数据最小化,默认开放,设计隐私以及禁止Wi-Fi的建议 CARNEGIEENDOWMENTF或国际豌豆CE5 + 尽管这一议程早于生成AI,但它为适用于当前新兴用途和AI技术的数据使用新工具创建了一个框架。 •洛杉矶,2020年:SmartLA2028是civ技术创新的蓝图。该计划概述了五个组成部分,包括基础设施数据工具和实践,数字服务和应用程序,连接性和数字包容性以及治理。虽然它没有具体提到人工智能,但它确实注意到人工智能作为实