AI智能总结
赛 迪 研 究 院主 办 2024年6月15日总第79期2第期 本期主题 □全球人工智能治理发展报告 『所长导读』 人工智能治理是一个涉及伦理、法律、技术等多方面的概念,核心目标是确保人工智能安全、可靠、可控,在此基础上,最大限度地发挥其在经济、社会和文化领域的积极作用,防范和控制可能出现的风险与负面影响。当前,全球人工智能技术快速更迭,以 ChatGPT 为代表的生成式人工智能技术不断催生新场景、新业态、新模式和新市场。在赋能人类社会经济进步的同时,人工智能“狂飙突进”式的发展也给全球带来安全隐患和风险挑战。随着人工智能技术的爆发式发展,全球范围内对人工智能治理的步伐正在加快,国际组织、各国政府、科技企业均在人工智能治理方面发挥着关键作用。我国作为人工智能领域的重要参与者,高度重视人工智能治理,积极推动人工智能治理进程,国内层面积极建立健全法制与监管体系,推动政府、企业、学术界和社会组织等多方共同参与,国际层面积极开展合作与对话,阐述人工智能治理中国方案。 本期描述了人工智能治理的概念内涵,分析了全球人工智能治理趋势和特点,梳理了我国人工智能治理在政策发展、标准发展、行业发展与国际合作与倡议方面开展的举措,并提出了促进我国人工智能治理的对策建议。希望本期内容能为政府部门、企业机构和社会组织提供参考和借鉴,并欢迎各界读者不吝赐教。 赛迪研究院网络安全研究所所长 温晓君2024 年 6 月 15 日 目 录目 录CONTENTS 本期主题:全球人工智能治理发展报告 一、人工智能治理概念内涵…………………………………………1 (一)概念内涵………………………………………………………………………1(二)核心目标………………………………………………………………………1(三)治理主体………………………………………………………………………3 二、全球人工智能治理趋势和特点…………………………………3 (一)国际组织………………………………………………………………………3(二)国家和地区……………………………………………………………………4(三)科技企业………………………………………………………………………6 三、我国人工智能治理已开展的举措………………………………7 (一)政策发展………………………………………………………………………7(二)标准发展………………………………………………………………………7(三)行业发展………………………………………………………………………8(四)国际合作与倡议………………………………………………………………9 四、人工智能治理难点、风险和挑战……………………………11 (一)各国立法步调不统一,全球监管框架难以落地…………………………11(二)部分国家寻求规则主导权,在推动人工智能治理过程中存在政治化苗头 ……………………………………………………………………………………11(三)全球智能鸿沟进一步放大数字鸿沟弊端,治理能力弥合难以追赶鸿沟扩大 速 度 ………………………………………………………………………………11(四)人工智能安全监管滞后,仍较大程度依靠企业自我约束………………12 (一)完善顶层设计………………………………………………………………12(二)实施有力监管………………………………………………………………13(三)推动技术发展………………………………………………………………13(四)强化国际合作………………………………………………………………13 本期主题: 全球人工智能治理发展报告 保人工智能技术在尊重人权、保护隐私和安全的前提下,促进其安全、可靠和健康发展的过程。 一、人工智能治理概念内涵 当前,全球人工智能技术快速更迭,以 ChatGPT 为代表的生成式人工智能技术不断催生新场景、新业态、新模式和新市场。在赋能人类社会经济进步的同时,人工智能“狂飙突进”式的发展也给全球带来安全隐患和风险挑战。 (二)核心目标 人工智能治理的核心目标是确保人工智能安全、可靠、可控,在此基础上,最大限度地发挥其在经济、社会和文化领域的积极作用,防范和控制可能出现的风险与负面影响。为实现人工智能的安全、可靠、可控,我们结合方滨兴院士、中国联通等在人工智能安全架构设计方面的观点,提出了一个五层安全架构模型,包括供应链安全、数据安全、算法安全、应用安全与伦理安全,以系统化地识别和应对人工智能在不同层面上的安全需求。 (一)概念内涵 根据“全球治理委员会”的定义:治理是个人和制度、公共和私营部门管理其共同事务的各种方法的综合。人工智能治理是一个涉及伦理、法律、技术等多方面的概念,结合“治理”定义,我们将人工智能 治 理 的 概 念 定 义 为:人 工 智 能治理是多方主体通过制定和执行原则、标准、指南与政策法规等,确 一是供应链安全。人工智能供应链安全是指在人工智能供应链的整个生命周期中,确保所涉及的训练框架、第三方库、操作系统、数据库、芯片、云服务等软硬件和服务的安全性、完整性和可靠性。 保算法的公正性、透明性、鲁棒性和抗攻击能力,同时采取必要措施保护算法免受未经授权的访问和篡改,以及确保算法的决策过程和结果合法、合规。 四是应用安全。人工智能应用安全是指确保人工智能应用在实际操作中的安全性和可靠性,防止其被滥用或误用,保障应用的输出和行为符合预期。 二是数据安全。人工智能数据安全是指通过采取必要措施,确保人工智能系统使用的数据得到有效保护,并且合法、安全地被利用,同时具备持续保障数据安全状态的能力。 五是伦理安全。人工智能伦理安全是指在人工智能系统的整个生命周期中,确保其设计和行为遵循以人为本的原则,尊重并保护个人权利,促进社会价值和公共利益, 三是算法安全。人工智能算法安全是指在整个人工智能系统的设计、开发、部署和使用过程中,确 三是科技企业。企业不仅是人工智能技术的研发者和应用者,更是治理环节中的重要参与者和实践者,是推动人工智能技术健康发展的重要力量。一方面,遵循人工智能伦理原则,如可信、公平、非歧视等,确保技术的公正性和透明度,明确人工智能技术的研发、应用和管理等方面的要求和规范,推动企业内部治理体系逐步完善。另一方面,参与行业自律与标准制定,推动形成行业共识,共同应对人工智能带来的挑战和问题。 同时避免产生不公平、歧视或责任不清等问题。 (三)治理主体 一是国际组织。国际组织是人工智能治理的协调者和推动者,致力于促进各国在人工智能领域的合作与交流,共同应对人工智能治理全球性挑战。一方面,搭建国际合作平台,促进各国在人工智能治理方面的协作与信息共享,共同探讨人工智能的未来发展方向与治理机制。另一方面,牵头统筹或参与制定人工智能的国际标准,确保人工智能技术的可信度和互操作性,促进全球范围内的技术交流与合作。 除了国际组织、政府部门与科技企业外,非政府组织、高等院校、科研机构等也在人工智能治理中发挥着重要作用,这些主体各自具有不同的优势和资源,通过相互合作和努力,共同推动人工智能技术的安全、可靠、可控,并造福人类社会。 二 是 政 府 部 门。政 府 部 门 是人工智能治理的主要监管者和推动者,保障人工智能技术的安全、可靠、可控。一方面,制定和执行人工智能治理相关的政策法规,明确人工智能技术的研发、应用和管理等方面的要求和规范,为人工智能技术的健康发展提供制度保障。另一方面,针对人工智能技术开展监管和执法,确保人工智能技术的应用符合法律法规和道德准则,防止滥用和误用现象的发生。 二、全球人工智能治理趋势和特点 (一)国际组织 全 球 人 工 智 能 治 理 从 国 际 共识 向 全 球 共 治 演 进, 逐 步 形 成 全球性的治理框架。近年来,国际组织 如 联 合 国、 经 济 合 作 与 发 展 组 的风险挑战,并明确了解决全球治理赤字所需的原则以及满足当下需求的新功能和制度安排。2024 年 3月,联合国大会通过了首个关于人工智能的全球决议,呼吁推动开发“安全、可靠和值得信赖的”人工智能系统,以促进可持续发展。 织(OECD)、20 国 集 团(G20) 等在人工智能治理方面发挥着关键作用,推动各国针对人工智能发展表达合理关切、寻求解决方案。 联合国及其下设机构积极推动全球人工智能治理进程。联合国教科文组织在 2019 年发布了《人工智能伦理问题建议书》,呼吁各国政府、企业、社会组织和个体,在人工智能技术的研发、应用、治理等方面,积极考虑人工智能伦理问题,推动人工智能伦理原则的全球传播与 实 施。2021 年 11 月, 该 建 议 书成 为 联 合 国 教 科 文 组 织 正 式 通 过的首份全球性人工智能伦理协议。2023 年 7 月,联合国安理会举行主题为“人工智能给国际和平与安全带来的机遇与风险”高级别公开会,这是安理会首次就人工智能问题举行会议,中国常驻联合国代表提出关 于 人 工 智 能 治 理 的 五 条 原 则。2023 年 12 月,联合国秘书长设立的人工智能咨询机构发布了《以人为本的人工智能治理》临时报告,该报告阐明了人工智能对人类潜在益处的机会和推动因素,强调了人工智能在当前和未来一段时期潜在 其他国际组织也在全球人工智能治理中发挥重要作用。2019 年 5月,经合组织通过了首部政府间人工智能政策指导方针,其 36 个成员国以及阿根廷、巴西、哥伦比亚、哥斯达黎加、秘鲁和罗马尼亚等国在部长理事会会议上联合签署了经合组织人工智能原则。它们包括具体的公共政策和建议,并于 2024 年进行了更新,以应对人工智能技术的最新发展。同年,20 国集团发布《G20 人工智能原则》,强调了人工智能的伦理和社会责任,鼓励各国在人工智能技术的研发、应用和治理方面,采取符合伦理要求和负责任的措施,并加强全球治理合作,共同推动人工智能的健康发展。 (二)国家和地区 近年来,全球多个国家和地区高度重视人工智能治理,通过颁布 逐 步 向 加 强 监 管 靠 拢。2023 年 10月,美国颁布《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》,建立安全和隐私保护标准,并要求开发人员对新模型进行安全测试。2024 年 5 月,美国参议院跨党派公布人工智能政策“路线 图”, 要 求 在 必 要 时 对 人 工 智能的高风险使用提出适当的、具体要求,例如透明度、测试评估标准等,为美国人工智能治理立法拉开序幕。与此同时,美国人工智能监管职责正由分散化向集中化转变。2023 年 11 月,美国在《行政命令》颁布后宣布成立人工智能安全研究所(USAISI),以加快与其他联邦政府机构的协调工作,推进人工智能风险管理。随后,2024 年 3 月,美国白宫管理与预算办公室(OMB)要求在各联邦机构指定一名首席人工智能官(CAIO),并建立人工智能治理委员会,以推进人工智能治理、创新和风险管理。 政策文件、成立统筹机构、发布指导框架等方式,逐步加强人工智能监管与统筹,以确保人工智能的健康发展并应对潜在风险。 欧盟监管风格趋向于强硬,期望通过设立全球范围的规则对人工智能进行全面监管。早在 2018 年,欧盟就提出了《人工智能的伦理准则》,强调人工智能的应用必须符合人类价值观和伦理原则,并建议采取措施加强人工智能的监管和透明度,促进人工智能技术的可持续发 展。2021 年, 欧 盟 提 出 了《 人工智能法案》,该法案对高风险人工智能系统的使用提出了严格的要求,并对不合规行为进行罚款和制裁,以限制和减少人工智能系统算法歧视风险。经过多轮谈判与协商,2024 年 5 月,欧盟理事会正式批准该法案,其广泛的域外适用效力将对欧盟和其他地区产生重要影响。同月,欧盟委员会宣布内设人工智能办公室,旨在降低人工智能风险,促进人工智能的开发、部署和应用,该办公室将在欧盟《人工智能法案》的实施中发挥关键作用。美国强调人工智能风险管理, 新加坡逐步完善治理框架,推动国家负责任地使用人工智能。新加坡于 2019 年发布了首版《