您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[赛迪]:全球人工智能治理发展报告 - 发现报告
当前位置:首页/行业研究/报告详情/

全球人工智能治理发展报告

信息技术2024-06-15-赛迪阿***
全球人工智能治理发展报告

研 网络安全究 赛迪研究院主办 2024年6月15日 第2期 总第79期 本期主题 □全球人工智能治理发展报告 『所长导读』 人工智能治理是一个涉及伦理、法律、技术等多方面的概念,核心目标是确保人工智能安全、可靠、可控,在此基础上,最大限度地发挥其在经济、社会和文化领域的积极作用,防范和控制可能出现的风险与负面影响。当前,全球人工智能技术快速更迭,以ChatGPT为代表的生成式人工智能技术不断催生新场景、新业态、新模式和新市场。在赋能人类社会经济进步的同时,人工智能“狂飙突进”式的发展也给全球带来安全隐患和风险挑战。随着人工智能技术的爆发式发展,全球范围内对人工智能治理的步伐正在加快,国际组织、各国政府、科技企业均在人工智能治理方面发挥着关键作用。我国作为人工智能领域的重要参与者,高度重视人工智能治理,积极推动人工智能治理进程,国内层面积极建立健全法制与监管体系,推动政府、企业、学术界和社会组织等多方共同参与,国际层面积极开展合作与对话,阐述人工智能治理中国方案。 本期描述了人工智能治理的概念内涵,分析了全球人工智能治理趋势和特点, 梳理了我国人工智能治理在政策发展、标准发展、行业发展与国际合作与倡议方面开展的举措,并提出了促进我国人工智能治理的对策建议。希望本期内容能为政府部门、企业机构和社会组织提供参考和借鉴,并欢迎各界读者不吝赐教。 赛迪研究院网络安全研究所所长温晓君 2024年6月15日 目录 CONTENTS 本期主题:全球人工智能治理发展报告 一、人工智能治理概念内涵…1 (一)概念内涵1 (二)核心目标1 (三)治理主体3 二、全球人工智能治理趋势和特点…3 (一)国际组织3 (二)国家和地区4 (三)科技企业6 三、我国人工智能治理已开展的举措…7 (一)政策发展7 (二)标准发展7 (三)行业发展8 (四)国际合作与倡议9 四、人工智能治理难点、风险和挑战11 (一)各国立法步调不统一,全球监管框架难以落地…11 (二)部分国家寻求规则主导权,在推动人工智能治理过程中存在政治化苗头11 (三)全球智能鸿沟进一步放大数字鸿沟弊端,治理能力弥合难以追赶鸿沟扩 大速度11 (四)人工智能安全监管滞后,仍较大程度依靠企业自我约束…12 五、促进我国人工智能治理的对策建议…12 (一)完善顶层设计12 (二)实施有力监管13 (三)推动技术发展13 (四)强化国际合作13 本期主题: 全球人工智能治理发展报告 一、人工智能治理概念内涵 当前,全球人工智能技术快速更迭,以ChatGPT为代表的生成式人工智能技术不断催生新场景、新业态、新模式和新市场。在赋能人类社会经济进步的同时,人工智能“狂飙突进”式的发展也给全球带来安全隐患和风险挑战。 (一)概念内涵 根据“全球治理委员会”的定义:治理是个人和制度、公共和私营部门管理其共同事务的各种方法的综合。人工智能治理是一个涉及伦理、法律、技术等多方面的概念,结合“治理”定义,我们将人工智能治理的概念定义为:人工智能 治理是多方主体通过制定和执行原 则、标准、指南与政策法规等,确 保人工智能技术在尊重人权、保护隐私和安全的前提下,促进其安全、 可靠和健康发展的过程。 (二)核心目标 人工智能治理的核心目标是确保人工智能安全、可靠、可控,在此基础上,最大限度地发挥其在经济、社会和文化领域的积极作用,防范和控制可能出现的风险与负面影响。为实现人工智能的安全、可靠、可控,我们结合方滨兴院士、中国联通等在人工智能安全架构设计方面的观点,提出了一个五层安全架构模型,包括供应链安全、数据安全、算法安全、应用安全与伦理安全,以系统化地识别和应对人工智能在不同层面上的安全需求。 图1人工智能安全架构 一是供应链安全。人工智能供应链安全是指在人工智能供应链的整个生命周期中,确保所涉及的训练框架、第三方库、操作系统、数据库、芯片、云服务等软硬件和服务的安全性、完整性和可靠性。 二是数据安全。人工智能数据安全是指通过采取必要措施,确保人工智能系统使用的数据得到有效保护,并且合法、安全地被利用,同时具备持续保障数据安全状态的能力。 三是算法安全。人工智能算法安全是指在整个人工智能系统的设计、开发、部署和使用过程中,确 保算法的公正性、透明性、鲁棒性和抗攻击能力,同时采取必要措施保护算法免受未经授权的访问和篡改,以及确保算法的决策过程和结果合法、合规。 四是应用安全。人工智能应用安全是指确保人工智能应用在实际操作中的安全性和可靠性,防止其被滥用或误用,保障应用的输出和行为符合预期。 五是伦理安全。人工智能伦理安全是指在人工智能系统的整个生命周期中,确保其设计和行为遵循以人为本的原则,尊重并保护个人权利,促进社会价值和公共利益, 同时避免产生不公平、歧视或责任不清等问题。 (三)治理主体 一是际织。国际组织是人工智能治理的协调者和推动者,致力于促进各国在人工智能领域的合作与交流,共同应对人工智能治理全球性挑战。一方面,搭建国际合作平台,促进各国在人工智能治理方面的协作与信息共享,共同探讨人工智能的未来发展方向与治理机制。另一方面,牵头统筹或参与制定人工智能的国际标准,确保人工智能技术的可信度和互操作性,促进全球范围内的技术交流与合作。 二是政府部门。政府部门是人工智能治理的主要监管者和推动者,保障人工智能技术的安全、可靠、可控。一方面,制定和执行人工智能治理相关的政策法规,明确人工智能技术的研发、应用和管理等方面的要求和规范,为人工智能技术的健康发展提供制度保障。另一方面,针对人工智能技术开展监管和执法,确保人工智能技术的应用符合法律法规和道德准则,防止滥用和误用现象的发生。 三是科技企业。企业不仅是人工智能技术的研发者和应用者,更是治理环节中的重要参与者和实践者,是推动人工智能技术健康发展的重要力量。一方面,遵循人工智能伦理原则,如可信、公平、非歧视等,确保技术的公正性和透明度,明确人工智能技术的研发、应用和管理等方面的要求和规范,推动企业内部治理体系逐步完善。另一方面,参与行业自律与标准制定,推动形成行业共识,共同应对人工智能带来的挑战和问题。 除了国际组织、政府部门与科技企业外,非政府组织、高等院校、科研机构等也在人工智能治理中发挥着重要作用,这些主体各自具有不同的优势和资源,通过相互合作和努力,共同推动人工智能技术的安全、可靠、可控,并造福人类社会。 二、全球人工智能治理趋势 和特点 (一)国际组织 全球人工智能治理从国际共识向全球共治演进,逐步形成全球性的治理框架。近年来,国际组织如联合国、经济合作与发展组 织(OECD)、20国集团(G20)等在人工智能治理方面发挥着关键作用,推动各国针对人工智能发展表达合理关切、寻求解决方案。 联合国及其下设机构积极推动 全球人工智能治理进程。联合国教科文组织在2019年发布了《人工智能伦理问题建议书》,呼吁各国政府、企业、社会组织和个体,在人工智能技术的研发、应用、治理等方面,积极考虑人工智能伦理问题,推动人工智能伦理原则的全球传播与实施。2021年11月,该建议书成为联合国教科文组织正式通过的首份全球性人工智能伦理协议。2023年7月,联合国安理会举行主题为“人工智能给国际和平与安全带来的机遇与风险”高级别公开会,这是安理会首次就人工智能问题举行会议,中国常驻联合国代表提出关于人工智能治理的五条原则。2023年12月,联合国秘书长设立的人工智能咨询机构发布了《以人为本的人工智能治理》临时报告,该报告阐明了人工智能对人类潜在益处的机会和推动因素,强调了人工智能在当前和未来一段时期潜在 的风险挑战,并明确了解决全球治理赤字所需的原则以及满足当下需求的新功能和制度安排。2024年3月,联合国大会通过了首个关于人工智能的全球决议,呼吁推动开发“安全、可靠和值得信赖的”人工智能系统,以促进可持续发展。 其他国际组织也在全球人工智 能治理中发挥重要作用。2019年5月,经合组织通过了首部政府间人工智能政策指导方针,其36个成员国以及阿根廷、巴西、哥伦比亚、哥斯达黎加、秘鲁和罗马尼亚等国在部长理事会会议上联合签署了经合组织人工智能原则。它们包括具体的公共政策和建议,并于2024年进行了更新,以应对人工智能技术的最新发展。同年,20国集团发布 《G20人工智能原则》,强调了人工智能的伦理和社会责任,鼓励各国在人工智能技术的研发、应用和治理方面,采取符合伦理要求和负责任的措施,并加强全球治理合作,共同推动人工智能的健康发展。 (二)国家和地区 近年来,全球多个国家和地区高度重视人工智能治理,通过颁布 政策文件、成立统筹机构、发布指导框架等方式,逐步加强人工智能监管与统筹,以确保人工智能的健康发展并应对潜在风险。 欧盟监管风趋向于强硬,期 望通过设立全球范围的规则对人工 智能进行全面监管。早在2018年,欧盟就提出了《人工智能的伦理准则》,强调人工智能的应用必须符合人类价值观和伦理原则,并建议采取措施加强人工智能的监管和透明度,促进人工智能技术的可持续发展。2021年,欧盟提出了《人工智能法案》,该法案对高风险人工智能系统的使用提出了严格的要求,并对不合规行为进行罚款和制裁,以限制和减少人工智能系统算法歧视风险。经过多轮谈判与协商,2024年5月,欧盟理事会正式批准该法案,其广泛的域外适用效力将对欧盟和其他地区产生重要影响。同月,欧盟委员会宣布内设人工智能办公室,旨在降低人工智能风险,促进人工智能的开发、部署和应用,该办公室将在欧盟《人工智能法案》的实施中发挥关键作用。 美国强调人工智能险管理, 逐步向加强监管靠拢。2023年10月,美国颁布《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》,建立安全和隐私保护标准,并要求开发人员对新模型进行安全测试。2024年5月,美国参议院跨党派公布人工智能政策“路线图”,要求在必要时对人工智能的高风险使用提出适当的、具体要求,例如透明度、测试评估标准等,为美国人工智能治理立法拉开序幕。与此同时,美国人工智能监管职责正由分散化向集中化转变。2023年11月,美国在《行政命令》颁布后宣布成立人工智能安全研究所(USAISI),以加快与其他联邦政府机构的协调工作,推进人工智能风险管理。随后,2024年3月,美国白宫管理与预算办公室(OMB)要求在各联邦机构指定一名首席人工智能官(CAIO),并建立人工智能治理委员会,以推进人工智能治理、创新和风险管理。 新加坡逐步完善治理框,推动国家负责任地使用人工智能。新加坡于2019年发布了首版《人工智能模型治理框架》,指导各组织 大规模负责任地部署人工智能解决方案,该框架于2020年进行了更新。2023年6月,新加坡信息通信媒体发展局发布了《生成式人工智能:对信任和治理的影响》,概括了生成式人工智能存在的安全风险并对现有的框架进行审查。2024年1月,新加坡AIVerify基金会和新加坡信息通信媒体发展局联合发布了《生成式人工智能模型治理框架草案》,以期培育可信的生成式人工智能生态系统。该框架草案在2020年版本基础上,进一步扩展了模型治理框架,推动了关于生成式人工智能治理的国际共识。随后,2024年5月,该框架的正式版本发布。此外,2022年5月,新加坡推出了全球首个人工智能治理测试框架和工具包(AIVerify),允许公司对自身的人工智能系统进行自愿评估,并出具客观、可验证的证明。 (三)科技企业 科技企业通过签署承诺书、实施最佳实践、设定风险阈值等方式,大力推动了全球人工智能技术的安全和可靠。 签署自愿性承诺提升人工智能 系统安全可信度。2023年7月和9月,美国拜登政府分别召集了包括Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAI、Adobe及IBM等在内的15家领先的人工智能技术公司,共同作出自愿性承诺,旨在提升人工智能系统和产品的安全性与可信度。2024年2月,在第二届全

你可能感兴趣

hot

人工智能治理之旅:发展与机遇(英)

信息技术
世界经济论坛2021-11-01
hot

人工智能治理白皮书

信息技术
中国信通院2020-09-28
hot

人工智能治理与可持续发展实践白皮书

信息技术
阿里巴巴2022-09-26