非国家行为体滥用人工智能及其对国际安全的影响 2026 年 3 月 引 言 近年来,以大模型为代表的前沿人工智能技术快速发展,正在深刻改变技术能力和专业知识的获取方式。然而,人工智能技术既是推动全球经济社会发展的重要力量,也可能成为新的风险放大器。如果前沿人工智能技术被恐怖组织、跨国犯罪集团等非国家行为体滥用,将会给国际社会的和平与安全带来严重的风险挑战。在这一背景下,如何在促进技术创新与防范非国家行为体滥用人工智能风险之间取得平衡,已成为全球政策界和学术界关注的重要议题。2026 年 2 月,清华大学战略与安全研究中心(CISS)在慕尼黑分别与布鲁金斯学会(Brookings)、人道主义对话中心(HD)开展人工智能与国际安全对话,非国家行为体滥用人工智能的风险及其治理都是交流的重要议题之一。基于此,本报告重点探讨了非国家行为体滥用人工智能的可能路径,带来的相关风险及其对国际安全的影响,并分析如何从国家层面和国际合作层面防范非国家行为体滥用人工智能的安全风险。希望本报告能够为理解这一复杂议题提供参考,并为相关政策讨论贡献有益思考。 目 录 非国家行为体滥用人工智能对国际安全的影响01◎鲁传颖非国家行为体滥用前沿人工智能的风险和认知分歧05◎肖茜恐怖分子滥用高能力大语言模型的国际安全影响10◎孙成昊降低非国家行为体滥用人工智能带来风险的国内方法19◎李强缓解非国家行为体引发的人工智能风险 : 背景、可行性与共同责任26◎祁昊天中美能否遏制非国家行为体滥用人工智能的风险?30◎郑乐锋 非国家行为体滥用人工智能对国际安全的影响 鲁传颖 一、非国家行为体滥用人工智能的国际安全风险 人工智能(AI)技术的可及性、通用性与自主进化能力不断提升直接为非国家行为体滥用 AI 创造了核心条件。非国家行为体无需掌握顶尖研发技术,便可借助开源模型、商用 API 等低门槛渠道,轻松获得自动化攻击、智能规避防御措施、低成本放大危害影响的能力。这种趋势具体表现为 AI 自身的内生脆弱性被不断挖掘、AI 负向应用的场景持续增加、AI 技术引发的安全治理制度失灵,国际安全构成的持续冲击。 非国家行为体滥用 AI 一方面会放大并激化各领域已存在的应用安全风险,降低传统风险的触发门槛;另一方面,AI 的内生特性与技术潜力会催生以往不存在的全新安全风险,突破传统安全治理边界,对国际安全构成多元威胁。 一方面,AI 会激化已有的应用安全风险。AI 可提高专业知识的可及性,使行为体更易获得或研发有害安全的武器、材料与设施。例如 AI 可通过赋能各行为体低成本和隐蔽地开发、运输与部署核及其他常规大规模杀伤武器(如导弹)、配套材料和设施等,实现军备扩散。而在生物安全领域,行为体可利用 AI 技术提升生物技术专业知识可及性,如通过绕开大语言模型安全防护可获取生物威胁原材料与关键信息或强化 / 改造生物因子的负面特征,开展生物恐怖主义或生物犯罪。 非国家行为体可利用 AI 升级既有的攻击手段,使攻击更为低廉,效果更加显著。在网络安全领域,AI 可降低大规模 DDoS 攻击的制作和投放成本、提高其精准度、实现生成自动化、实现零代码攻击等。同样地,在认知安全领域,借助 AI,不仅可以快速生产高质量的虚假信息与深度伪造内容,还能通过机器学习,可以更为精准地实现虚假信息的精准推送,加速形成“信息茧房”,在短期内可导致大规模认知偏见和极化,方便认知操纵和群体性认知欺诈。 AI 对相关应用领域的赋能也暴露了安全系统的脆弱性,例如在核及常规军事安全领域中,非国家团体可提前向 NC3 或其他打击系统内的 AI 模型中植入对抗 样本和恶意后门,从而掌握部分参数的调控权,以此作为勒索和威胁国家的筹码,成为新式的恐怖攻击类型之一。同样地,在认知安全领域中,AI 技术可活用人类“信息过载”后容易诉诸于情绪化叙事的认知惯性,运用海量虚假信息,引导人群放弃对信息真实性的求证,转而依赖知觉、情绪判断和 AI 本身,削弱群体的认知能力、心理防线乃至凝聚力。 非国家行为体对 AI 的滥用也会对国际安全治理制度构成多重冲击,表现为挑战国际规范、模糊责任链条、淡化合作基础、加速技术逐底竞赛,从而削弱治理机制效能并使其逐步弱化。 第一,挑战国际规范与伦理共识,削弱安全治理机制的适应能力:非国家行为体通过 AI 技术的模块化与平台化扩散,使之迅速在治理机制外获取类国家能力,能以去中心化和非正式方式实施跨境行为。这使得既有安全规范在责任划分、适用对象和风险分级等方面滞后于问题现状,治理原则和伦理规范难以及时回应新型风险,削弱安全治理机制对技术实践的引导与约束功能。 第二,模糊化责任链,破坏规制机制的问责与惩罚功能:非国家行为体滥用的 AI 技术往往来源于多元主体的组合,如开源模型、商业平台、匿名化社群、黑市等。治理机制无法及时明确不同环节的责任归属,使得非国家行为体的滥用行为很难及时担负治理成本、被有效制裁与被惩戒,从而削弱了问责机制的威慑力,放大安全治理机制的缺陷。 第三,淡化合作基础,削弱各主体通过信息共享弥合能力不对称的可能性:非国家行为体可以通过 AI 自动化分析治理机制的公开信息,通过反向工程,得出绕开机制的约束方法和风险预防盲区;也能利用全球缺乏有效溯源 AI 模型输出的技术鸿沟,发起假旗行动,破坏合作互信基础;更使各国、企业与社群担忧以“能力建设”为目标的治理方法反而导致非国家行为体滥用 AI 的活跃,从而加剧现有的 AI 能力鸿沟。 第四,加速 AI 逐底竞赛,使既有安全治理机制无效化:非国家行为体滥用 AI所制造的不确定性反而成为国家层面技术竞逐的压力来源,各主体倾向于以进攻性逻辑应对安全风险,通过加速技术研发、放款应用约束和降低伦理门槛来维持相对优势,推动安全治理目标从风险控制转向竞争,从而使得安全治理机制空心化。 二、为什么非国家行为体可以滥用人工智能 非国家行为体能够滥用人工智能,核心源于 AI 技术扩散与治理的失衡、安全治理中的赋能 - 嵌入两难,以及其可外部化风险、低成本高收益的激励结构,为滥用行为提供了可乘之机。 非国家行为体得益于 AI 加剧的归因难题,很少承担 AI 安全治理成本,从而常能外部化 AI 滥用风险,呈现低成本 - 高收益的激励结构。首先,非国家行为体可通过免费搭便车的方式,享受全球 AI 技术民主化和开源生态带来的治理红利,却可将滥用产生的负外部性强制转嫁给国际社会。当非国家行为体利用 AI 引发社会信任危机、金融市场动荡或网络瘫痪时,由此产生的系统性风险和重建成本全部由受害国政府和全球治理机制承担,使滥用行为具有吸引力。 其次,非国家行为体可利用 AI 的溯源模糊性,无需担忧对等报复,由此在 AI实验或攻击中展先极高的风险偏好,并倾向于测试国家与国际机制出于国际声誉和利益期望不敢触及的禁区,从而引发非国家行为体滥用的极端化倾向。 最后,非国家行为体可在治理能力相对较弱的发展中国家与区域发展,利用当地的治理工具与经验欠缺,规避国际机制的溯源与追责。 三、如何规制非国家行为体人工智能滥用行为 为有效防范非国家行为体滥用人工智能引发的各类安全风险,破解现有治理滞后、协同不足等困境,亟需构建系统性的规制体系。具体可通过搭建韧性包容的协同治理框架、完善本土化与标准化兼顾的国际治理实验机制、建立赋权导向的国际能力建设支持框架,凝聚全球共识、补齐 AI 治理短板。 (一)构建一个具有韧性、适应性和包容性的协同治理框架 其一,应将非国家行为体纳入治理对象范畴,突破将非国家行为体视为外部威胁的治理惯性,依据组织形态、技术能力、活动领域与潜在风险水平,构建针对性风险识别机制。一方面便于实施差异化的监管义务与治理参与路径,另一方面为具备治理合作意愿的行为体提供制度接入渠道,使其参与风险标准、测试与规范共建。 其二,建立常态化的风险信息共享与协同响应机制,通过联合开展前沿 AI 模 型测试评估、共享风险研究成果、推动评估标准的国际互认、记录 AI 系统风险的关键案例评判,从而保证问责透明,能积极面对突发跨境的 AI 滥用风险。 其三,构建具有约束力的全球治理机制与履约保障体系,可借鉴《蒙特利尔议定书》在臭氧层保护方面的经验,制定相关安全公约,明确开源模型安全审查和算法透明度方面的最低标准,并设立定期评估和资助各国的基金会与条款。 (二)构建统筹本土化与差异化、标准化与场景化的国际治理实验机制 其一,构建具有跨文化兼容的伦理标准与技术互操作体系,形成可操作的技术解决方案,提供“价值中性”的基础安全协议,鼓励各治理主体以此为基础,根据自身风险结构、技术生态与社会韧性开展本土化制度实验。 其二,搭建围绕高风险应用场景的跨域治理沙盒,对关键技术应用领域进行情景化测试,并设立相关国际机构,使统一国际标准在真实或虚拟场景中接受检验、细化与修正,并鼓励治理相关方将重要沙盒检验成果共享,方便日后治理主体调用。 其三,通过建设多层、多区域的试点网络,将分散于不同国家、平台与领域的治理经验进行系统性汇聚与比较,形成“实验 - 评估 - 标准化”的动态正反馈循环。 (三)构建以赋权为导向、兼顾包容性的国际能力建设支持框架 其一,搭建开放式的全球人工智能安全知识共享网络,弭平各国间的知识赤字,尤其是帮助发展中国家获取辨别 AI 滥用行为的安全知识。 其二,建立多元化的技术援助与资源共享机制,推动构建全球 AI 安全技术共享池,以自愿贡献非敏感的安全技术,形成全球公共产品。 其三,构建尊重自主权的赋权型合作关系,帮助发展中国家的内生治理能力,优先解决数字基础设施、数据主权保护与本土语言模型开发的核心关切。 作者:鲁传颖,清华大学战略与安全研究中心特约专家,同济大学政治与国际关系学院副院长、教授。 非国家行为体滥用前沿人工智能的风险和认知分歧 肖茜 先进或前沿人工智能模型被非国家行为体滥用所带来的安全风险,已不再停留于理论层面,而是日益呈现出可观察的现实迹象。前沿人工智能不仅能力更强,而且传播更快、获取门槛更低、规模扩展能力更高。因此,相关的安全风险正在发生结构性转移,焦点成为谁能够操纵信息,使一些扰乱行为自动化,并在危机时刻加以利用。 一、非国家行为体滥用人工智能的主要路径 目前来看,非国家行为体可能在至少四个领域滥用先进人工智能,分别是网络攻击,虚假信息与认知操控,化学、生物、放射性和核(CBRN)相关活动以及人工智能赋能的自主或半自主系统。 《2026 年国际人工智能安全报告》指出了过去一年两项值得关注的发展: 第一,人工智能在科学能力方面取得较大进步,加剧了外界对其可能被用于生物武器开发的担忧。多家人工智能公司在 2025 年发布新模型时,在部署前测试阶段无法完全排除模型可能显著协助新手开发生物武器的风险,因此选择增加额外的安全防护机制。第二,越来越多的证据显示,人工智能系统已被用于现实世界的网络攻击。多家人工智能公司的安全分析表明,恶意行为者正在利用人工智能工具辅助其网络攻击行为a。 需要指出的是,报告更多是基于科学风险分析提出潜在威胁路径,而非详述已被非国家行为体实施的具体案例。这反映出相关领域仍处于人工智能滥用的实证证据早期阶段,但也凸显前瞻性风险评估的重要性。 二、大模型辅助下的化学与生物武器化风险 在 CBRN 领域,人工智能风险并非意味着非国家行为体能在一夜之间获得新型武器,而在于先进模型可以浓缩专业知识、整合分散信息,从而降低非国家行为体进行危险实验的技术门槛。 2023 年至 2024 年间,多家前沿人工智能开发商开展了正式的红队测试与评估,检验大型语言模型能否协助非专业用户完成与 CBRN 相关的任务。其中一个广泛引用的案例来自 OpenAI 与学术专家合作开展的测试b。在相关评估中,研究团队重点检验大型语言模型能否系统整合公开来源的分散化学信息,针对技术细节不断深化的递进式问题进行回应,并在理解有毒化学品性质、合成机制及可能部署场景方面,显著减少认知成本,降低专业技能门槛。