您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[-]:Al系统的网络安全治理实践 - 发现报告
当前位置:首页/行业研究/报告详情/

Al系统的网络安全治理实践

信息技术2024-10-21--ζ***
AI智能总结
查看更多
Al系统的网络安全治理实践

AI系统的网络安全治理实践 防护视角下保护AI系统的网络安全实践 2024年9月 华为技术有限公司 目录 目录 0101 目的 0203 人工智能各界关注与风险 1305 华为公司人工智能网络安全治理实践 0201 范围 0411 华为公司人工智能发展与现状 0618 华为公司人工智能系统的网络安全防护实践 目的、范围 目0的1 本文旨在分享应对AI系统(AISYSTEM[1])潜在网络安全风险的策略,并为AI全生命周期的各个阶段提供了缓解安全风险的工程实践思考。 范0围2 随着AI技术的应用场景不断推广和深化,AI系统的网络安全风险在持续变化,其网络安全防护策略也需要不断地推陈出新。本文描述了当前华为公司应对AI系统网络安全(CyberSecurityofAISystem)新风险的工程实践,并为华为公司客户和利益相关方提供参考。本文不包括AI的功能安全 (AISafety)问题,如公平性、透明度、包容性等,也不包括AI技术在网络攻击中的滥用问题。 本文描述AI系统的网络安全工程实践,是从设计、开发、部署、运行等全生命周期的视角,保护AI系统的数据、模型、应用及算力底座等关键要素,目标是使得AI系统符合设计意图地可靠运行,有效应对人为操纵的威胁。 [1]https://oecd.ai/en/wonk/ai-system-definition-update 人0工3智能各界关注与风险 人工智能(ArtificialIntelligence,缩写为AI[2]),亦称机器智能,指由人制造出来的机器所表现出来的智能。 人工智能自从1956年达特茅斯会议上提出概念,发展到现在近70年,经历了多次繁荣和低谷,直到上世纪九十年代后期开始,随着计算机成本的降低、以及互联网带来的数据规模的膨胀,开始进入了一个较为稳定的发展期。随着GPU等芯片带来了算力提升和深度学习的应用,人工智能在各方面都取得了突破,进入了一个全新的发展时期。2020年以后,在深度学习基础上发展起来的大模型成为人工智能最主要的研究范式,几乎在人工智能的各个领域上都表现出巨大的进步,尤其是生成式人工智能的成功,使得人工智能的应用领域大大扩展,通用人工智能(ArtificialGeneralIntelligence,AGI)也不再遥不可及。 从发展过程可以看出,算法、算力、数据是驱动人工智能发展的三个最主要的驱动力。而随着人工智能能力越来越强,甚至达到接近人类智能的水平,AI系统在网络安全方面带来的问题也越来越多,引发了人们对AI系统网络安全的广泛关注和思考。 而现阶段要确保AI系统的网络安全面临着巨大的挑战,若不引起足够重视,人工智能未来可能带来更多网络安全风险。华为公司呼吁多利益方共同参与并全面加强对AI系统的评估和监管,共同应对这些挑战,才能最终实现人工智能的长期可持续健康发展。 3.1世界各国人工智能安全法律立法情况 整体而言,人工智能技术储备、商业生态、文化与法律传统、所处的治理阶段等要素,都不同程度影响一国或地区的人工智能安全治理实践,因此,不同国家和地区的人工智能法律法规的制定和执行呈现一定的差异性。 [1]https://zh.wikipedia.org/wiki/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD 3.1.1欧盟 欧盟人工智能治理以“卓越和信任”为主线,既推出产业发展政策,又同步推进伦理和监管规则,保障安全和基本权利[1]。2021年4月,欧盟委员会提出《人工智能法》草案[2]。经过多次谈判与修订,《人工智能法》于2024年7月12日刊登于欧盟公报,于2024年8月1日生效并将分阶段适用[3]。 《人工智能法》对人工智能统一定义、全域适用、构建体系化的处罚机制,为全面性、系统性的监管治理提供法律依据。就风险分级而言,欧盟《人工智能法》将人工智能系统基于风险分为不同级别,每级风险都由一套预定义的监管工具来管理。就分类治理而言,欧盟针对类GPT大模型引入通用目的人工智能专门条款,并延续了风险分级管理思路,将通用人工智能模型进一步区分为是否存在系统性风险两类,并施以不同的合规义务。 3.1.2美国 美国联邦层面尚未出台系统性的人工智能安全法。2023年10月,白宫发布《关于安全、稳定和可信的人工智能行政令》[4]构筑美国人工智能安全监管的蓝图。强调“管理联邦政府自身使用人工智能的风险,并提高其监管、治理和支持负责任使用人工智能造福美国人的内在能力”。出于国家安全考量,行政令首次提出有硬性监管效力的大模型政府报告要求,要求“存在重大安全风险的强大双重用途基础模型开发者”,向政府报告并分享安全信息、测试信息等。美国多个州,包括科罗拉多、佛罗里达、印第安纳、加州等也开始关注人工智能相关的立法,特别关注高风险人工智能系统开发者的义务等。此外,美国将人工智能技术视作国际战略竞争的关键科技因素,并将人工智能相关技术列入《关键和新兴技术清单》[5],明确相关人工智能技术属于对美国国家安全产生重要影响的关键和新兴技术。 [1]https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682 [2]https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 [3]https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:L_202401689 [4]https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/ executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/ [5]https://www.whitehouse.gov/wp-content/uploads/2022/02/02-2022-Critical-and-Emerging-Technologies-List-Update.pdf 3.1.3中国 2017年国务院《新一代人工智能发展规划》[1]奠定中国人工智能法治发展的总基调,提出“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。规划在人工智能治理方面提出战略目标:一是到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;二是到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。 目前,中国《网络安全法》、《数据安全法》、《个人信息保护法》等在涉及人工智能相关场景时可延伸适用。在规章层面,国家网信办联合有关部门,先后针对算法推荐服务、深度合成、生成式人工智能服务等不同应用领域进行针对性立法,保障人工智能健康发展、规范应用。 3.2人工智能安全相关标准与认证 围绕AI治理,世界各国政府及产业界积极协作,发布OECD《AI原则》、欧盟《可信人工智能伦理指南》、联合国教科文组织《人工智能伦理问题建议书》、中国《全球人工智能治理倡议》、 《人工智能全球治理上海宣言》等国际共识。2023年11月,中、美、德、法、英、日、欧盟等29个国家和地区在英国共同签署《布莱奇利宣言》,特别强调AI治理国际合作的重要性。AI网络安全 (Security)治理与管理、风险管理、数据保护等内容作为上述国际共识的重点内容,也是相关国际标准化工作的重点。 3.2.1国际标准:ISO/IECAI安全相关标准 2017年,ISO/IECJTC1以原有WG9大数据工作组为基础,成立SC42子委会,专门负责AI相关标准化工作,SC42发布、在研的AI安全相关标准主要包括: 1.ISO/IEC42001:2023InformationtechnologyArtificialintelligenceManagementsystem,该标准已发布,可用于AI管理体系认证。 2.ISO/IEC23894:2023InformationtechnologyArtificialintelligenceGuidanceonriskmanagement,该标准已发布,配套42001使用。 [1]https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm 3.ISO/IECDIS42005Informationtechnology—Artificialintelligence—AIsystemimpactassessment,该标准在研,配套42001使用。 特别指出,ISO/IEC42001:2023以规范性附录的形式,系统定义了九大领域共38条控制措施及指南,相关设计主要借鉴了ISO/IEC27002:2022。 AI安全相关的ISOJTC1SC42及SC27国际标准,作为最大化的国际共识,在支撑国际贸易便利化方面起到不可替代的作用,被欧盟、中国及其他国家广泛参考使用。系统使用ISO/IEC42001、23894、42005、27002等标准有助于持续改进AI系统安全,也有利于与客户及其他相关方进行沟通与信任建设。 3.2.2欧盟标准:欧盟CEN/CLCJTC21AI安全相关协调标准 欧洲标准化组织CEN/CLC成立JTC21专门负责AI标准建设,该技术委员会主要通过引入ISO标准或独立开发的方式,系统性开展欧洲AI安全、可信标准建设。由JTC21发布、在研的AI安全相关标准主要包括: 1.ENISO/IEC23894:2024Informationtechnology-Artificialintelligence-Guidanceonriskmanagement,该标准已发布,等同转化采用ISO标准。 2.prENISO/IEC42001Informationtechnology-Artificialintelligence-Managementsystem,该标准在研,等同转化采用ISO标准。 3.prCEN/CLC/TRAIRisks-CheckListforAIRisksManagement,该标准在研,欧盟标准化机构参考ISO/IEC23894以自研方式设计。 3.2.3美国标准:NISTAI安全相关标准 为更好支持美国AI产业发展及国际化、支撑美国EO14110号人工智能总统行政令落地,NISTITL实验室将AI作为重点研究方向,围绕可信任AI技术基础研究、AI标准化、AI技术应用创新等目标设定若干具体工作任务。 NIST已正式发布的部分AI安全、风险管理相关标准主要包括: 1.AI100-1ArtificialIntelligenceRiskManagementFramework。 2.AI100-2AdversarialMachineLearningATaxonomyandTerminologyofAdversarialMachineLearning。 3.SP800-218ASecureSoftwareDevelopmentPracticesforGenerativeAIandDual-UseFoundationModels。 美国NIST牵头开发的标准与实践,具备技术实用性,有助于开展AI安全管理及推动安全工程建设。 3.2.4中国标准:TC260AI安全相关标准 中国高度重视人工智能产业发展,标准成为产业政策落地的重要抓手。全国网络安全标准化技术委员会(TC260)发布了《人工智能安全标准化白皮书(2023版)》,该白皮书由中国电子技术标准化研究院等20家单位共同编写,提出了一系列人工智能安全标准化工作的建议,