本周板块走势回顾:本周(4月3日-4月7日)计算机(中信)指数上涨5.24%,创业板指数上涨1.98%,上证指数上涨1.67%。板块周涨幅前三为山大地纬(54.13%)、久远银海(44.99%)、万达信息(38.79%),板块跌幅前三为当虹科技(-14.98%)、凌志软件(-9.58%)、国联股份(-9.40%)。 AI内生性风险:安全事件触发监管重视。2023年3月25日,OpenAI发布公告,证实部分ChatGPT Plus服务订阅用户的个人隐私和支付信息存在泄露; 2023年4月2日,三星在引入ChatGPT不到20天里,发生了三起半导体机密资料外泄事故。安全事故频发引起人们对于AI技术的审慎思考。2023年3月29日,包括马斯克在内的众多人工智能专家和高管联名呼吁,所有人工智能实验室应立刻暂停训练比GPT-4更强大的大模型。随后,各个国家或机构纷纷发起对ChatGPT等AI技术的监管问题的探讨。2023年4月6日,OpenAI官方发布了一篇名为《我们对AI安全的方法》(“Our approach to AI safety”)的博客文章,同样强调了AI发展需做好的六大措施。因此,正确运用AI技术并有效防范AI潜在风险,才是AI技术可持续发展的基础。 AI安全双刃剑:善用其力量,提防其风险。网络攻击方面:搭载了AI能力的黑客如虎添翼,ChatGPT的强大功能降低了网络攻击者用于制作恶意软件和降低技术门槛,使得攻击手法转向分布式、智能化、自动化,智能化对抗将成为主要的攻防形式;网络安全防护方面:AI技术使人们能够更准确地了解风险,并在不影响准确性的情况下迅速作出决定,无需等待人为的干预;在AIGC领域,人们也可以使用人工智能检测器来查看内容是否为AI生产。2023年3月28日,微软公司推出下一代人工智能产品Microsoft Security Copilot,将AI技术应用于网络安全领域,为安全专业人员提供一个有效的工具,以快速检测和响应威胁,并更好地了解整个隐患存在的态势。国内市场来看,我国网络安全公司在正加速拥抱AI能力,让AI赋能网安攻防及监管。 投资建议与标的:AI赋能网络安全行业,建议重点关注: AI+网络安全:深信服、启明星辰、天融信、奇安信、安恒信息AI+监管:太极股份、电科网安、美亚柏科、拓尔思 风险提示:技术发展不及预期;竞争格局加剧;宏观政策风险。 一、行业周观点 本周板块走势回顾:本周(4月3日-4月8日)计算机(中信)指数上涨5.24%,创业板指数上涨1.98%,上证指数上涨1.67%。板块周涨幅前三为山大地纬(54.13%)、久远银海(44.99%)、万达信息(38.79%),板块跌幅前三为当虹科技(-14.98%)、凌志软件(-9.58%)、国联股份(-9.40%)。 AI内生性风险:安全事件触发监管重视。2023年3月25日,OpenAI发布公告,证实部分ChatGPT Plus服务订阅用户的个人隐私和支付信息存在泄露;2023年4月2日,三星在引入ChatGPT不到20天里,发生了三起半导体机密资料外泄事故。安全事故频发引起人们对于AI技术的审慎思考。2023年3月29日,包括马斯克在内的众多人工智能专家和高管联名呼吁,所有人工智能实验室应立刻暂停训练比GPT-4更强大的大模型。随后,各个国家或机构纷纷发起对ChatGPT等AI技术的监管问题的探讨。2023年4月6日,OpenAI官方发布了一篇名为《我们对AI安全的方法》(“Our approach to AI safety”)的博客文章,同样强调了AI发展需做好的六大措施。因此,正确运用AI技术并有效防范AI潜在风险,才是AI技术可持续发展的基础。 AI安全双刃剑:善用其力量,提防其风险。网络攻击方面:搭载了AI能力的黑客如虎添翼,ChatGPT的强大功能降低了网络攻击者用于制作恶意软件和降低技术门槛,使得攻击手法转向分布式、智能化、自动化,智能化对抗将成为主要的攻防形式;网络安全防护方面:AI技术使人们能够更准确地了解风险,并在不影响准确性的情况下迅速作出决定,无需等待人为的干预;在AIGC领域,人们也可以使用人工智能检测器来查看内容是否为AI生产。2023年3月28日,微软公司推出下一代人工智能产品Microsoft Security Copilot,将AI技术应用于网络安全领域,为安全专业人员提供一个有效的工具,以快速检测和响应威胁,并更好地了解整个隐患存在的态势。国内市场来看,我国网络安全公司在正加速拥抱AI能力,让AI赋能网安攻防及监管。 投资建议与标的:AI赋能网络安全行业,建议关注: AI+网络安全:深信服、启明星辰、天融信、奇安信、安恒信息 AI监管:太极股份、电科网安、美亚柏科、拓尔思 图表1计算机重点公司盈利预测与估值表 二、安全为本:揭示AI技术发展中的风险与赋能之道 (一)AI技术发展引发监管重视,安全是发展的基石 AI技术发展引发监管重视。2023年3月29日,包括马斯克在内的众多人工智能专家和高管联名呼吁,所有人工智能实验室应立刻暂停训练比GPT-4更强大的大模型,为期至少6个月,以审视AI技术的潜在安全风险。随后,各个国家或机构纷纷发起对ChatGPT监管问题的探讨。 图表2 AI发展引起监管重视 如何正确运用AI技术并有效防范AI潜在风险,将成为其可持续发展的重点。2023年4月6日,OpenAI官方发布了一篇名为《Our approach to AI safety》的博客文章,探讨了如何安全地构建、部署和使用人工智能系统的六大策略: 图表3《Our approach to AI safety》 1)构建越来越安全的人工智能系统 在发布任何新系统之前,OpenAI表示会进行严格的测试,聘请外部专家进行反馈,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。例如,在最新模型GPT-4完成培训后,花了6个多月的时间在整个组织中工作,以使其在公开发布之前更安全、更一致。 图表4人工反馈的强化学习工作原理 2)从现实世界的使用中学习,以改进保障措施 OpenAI表示,尽管在部署前已尽力防范可预见风险,但实验室所能学到的仍然有限。他们将谨慎、逐步向更多人发布新的AI系统,并在吸取经验教训后不断改进。通过提供API和最强大的模型,使开发者能将技术直接应用于程序中。这有助于监测滥用情况并采取行动,建立缓解措施,以应对实际滥用方式,而非仅停留在理论层面。 图表5 ChatGPTAPI接口 3)保护儿童 OpenAI强调儿童安全,要求使用AI工具的用户年满18岁,或在父母同意下年满13岁。 严禁技术应用于仇恨、骚扰、暴力或成人内容等场景,GPT-4在响应不允许内容方面相较于GPT-3.5降低了82%的可能性。除此之外,OpenAI与Khan Academy等非营利组织合作,打造AI辅助系统,充当学生导师与教师助手,并制定相应安全措施。 4)尊重隐私 OpenAI表示努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并响应个人从其系统中删除其个人信息的要求。这些步骤最大限度地减少了模型可能生成包含私人个人信息的响应的可能性。 5)提高事实准确性 OpenAI通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,提高了GPT-4的事实准确性。GPT-4产生真实内容的可能性比GPT-3.5高40%。 6)持续的研究和参与 解决安全问题还需要广泛的辩论、实验和参与,包括关于AI系统行为的界限。OpenAI已经并将继续促进利益相关者之间的合作和开放对话,以创建一个安全的AI生态系统。 (二)AI赋能网安行业:提防AI风险,善用AI力量 1、新技术的发展往往带来新风险的产生 AI技术引发数据安全问题。2023年3月25日,OpenAI发布公告,证实部分ChatGPT Plus服务订阅用户的个人隐私和支付信息存在泄露。2023年4月2日,三星在引入ChatGPT不到20天里,就已经发生了三起半导体机密资料外泄事故,其中两起与半导体设备相关的资料,另外一起是会议内容,涉及了测量资料、产品良品率等内容。 搭乘AI能力,黑客如虎添翼。ChatGPT引领AI革命,其强大功能降低了网络攻击者用于制作恶意软件和降低技术门槛。网络攻击介入AI能力,使得攻击手法转向分布式、智能化、自动化,智能化对抗将成为攻防主要形式。 图表6“虚拟黑客机器人”模拟黑客攻击的过程 除此之外,AI系统部署环节较多,亦可能存在安全风险。AI系统在设计上面临五大安全挑战: 1)软硬件的安全:在软件及硬件层面,包括应用、模型、平台和芯片,编码都可能存在漏洞或后门;攻击者能够利用这些漏洞或后门实施高级攻击。 2)数据完整性:在数据层面,攻击者能够在训练阶段掺入恶意数据,影响AI模型推理能力;攻击者同样可以在判断阶段对要判断的样本加入噪音,刻意改变判断结果。 3)模型保密性:在模型参数层面,服务提供者往往只希望提供模型查询服务,而不希望曝露自己训练的模型;但通过多次查询,攻击者能够构建出一个相似的模型,进而获得模型的相关信息。 4)模型鲁棒性:训练模型时的样本往往覆盖性不足,使得模型鲁棒性不强;模型面对恶意样本时,无法给出正确的判断结果。 5)数据隐私:在用户提供训练数据的场景下,攻击者能够通过反复查询训练好的模型获得用户的隐私信息。 针对以上5大挑战,AI系统部署到业务场景中所需要三个层次的防御手段:攻防安全、模型安全和架构安全。 攻防安全:针对已知攻击,设计有针对性的防御机制保护AI系统安全。目前主流的几种攻击方法包括闪避攻击、药饵攻击、后门攻击和模型/数据窃取攻击。针对这些攻击对应的防御技术包括对抗训练、网络蒸馏、对抗样本检测、DNN模型验证、训练数据过滤、集成分析、模型剪枝、隐私聚合教师模型等防御技术。 模型安全:应增强AI模型本身的安全性,避免其它可能的攻击方式造成的危害。关键技术包括模型可检测性、模型可验证性和模型可解释性。 架构安全:在业务中使用AI模型,需要结合具体业务自身特点和架构,分析判断AI模型使用风险,综合利用隔离、检测、熔断和冗余等安全机制设计AI安全架构与部署方案,增强业务产品健壮性。 图表7 AI系统防御架构 2、AI技术同样能为安全所用,击退AI风险 AI技术同样能为网络安全防护所用。AI技术将使人们更准确地了解风险,并在不影响准确性的情况下迅速作出决定,无需等待人类的干预。在AIGC领域,也可以使用人工智能检测器来查看内容是否为机器生产。人工智能在网络安全方面的应用包括: 入侵检测:人工智能可以检测网络攻击、恶意软件感染和其他网络威胁。 网络分析:人工智能也被用于分析大数据,以检测组织的网络安全态势中的模式和异常情况。 安全的软件开发:人工智能可以通过向平台开发者提供关于其代码是否封闭的实时反馈,帮助创建更安全的软件。 2023年3月28日,微软公司推出下一代人工智能产品Microsoft Security Copilot,其核心技术是OpenAI的GPT-4生成式人工智能和微软自己的安全专用模型。Security Copilot看起来像一个简单的对话框,就像其他的聊天机器人一样,可以向Security Copilot提问,诸如“我企业里有哪些安全事件?”,Copilot就会给出一个概要。它利用了微软每天收集到的65万亿个信号,以及安全领域的专业技能,让安全专业人士能够追踪威胁。 图表8 Microsoft Security Copilot操作界面 (三)国内网络安全公司积极拥抱AI能力 网络安全公司正加速拥抱AI能力,AI赋能网安攻防及监管。 图表9 AI赋能网络安全公司 (四)投资建议与相关标的 投资建议与标的:AI赋能网络安全行业,建议关注: AI+网络安全:深信服、启明星辰、天融信、奇安信、安恒信息 AI监管:太极股份、电科网安