证券研究报告·行业策略报告·互联网传媒增持(维持) 传媒互联网中期策略: 底部再CallAI机会,重视互联网中的α 证券分析师:张良卫执业证书:S0600516070001 联系邮箱:zhanglw@dwzq.com.cn 证券分析师:周良玖 执业证书编号:S0600517110002联系邮箱:zhoulj@dwzq.com.cn 研究助理:郭若娜 执业证书编号:S0600122080017联系邮箱:guorn@dwzq.com.cn 研究助理:李博韦 执业证书编号:S0600123070070 联系邮箱:libw@dwzq.com.cn 请务必阅读正文之后的免责声明部分2024年6月17日 目录 1.大模型及应用市场预期过度悲观,看好当前底部机会 2.算力:光通信板块逻辑持续强化 3.互联网:板块估值仍有性价比,个股α机会值得把握 4.风险提示 1.大模型及应用市场预期过度悲观,看好当前底部机会 wind人工智能指数已经跌回2023年初位置: 市场对于国内AI行业变化反应过度悲观,例如对于AI大模型成本下降,很多投资人认为是大模型变卷,但实际上是创新带来的成本下降; 市场风险偏好下降阶段,对于行业空间的判断变的保守; 根据披露数据,AI应用相关标的的持仓已经显著下降。 当前是A股AI应用板块的基本面右侧以及情绪的底部,风险偏好修复后AI应用板块有望迎来一波新的投资机会。 9000 8500 8000 7500 7000 6500 6000 5500 5000 4500 4000 wind人工智能指数2023年1月至今指数走势 月之暗面一年估值达到30亿美金 披露日期 交易金额 估值投资方 2024-5-21 未披露 30亿美金腾讯高榕创投 2024-2-19 超10亿美元 红杉中国 25亿美元小红书 美团阿里 2023-6-12 未披露 3亿美元真格基金 红杉中国 wind人工智能指数 DeepSeek引领国内大模型API价格下降,它的创新性在三点: 1、DeepSeek-V2设计了一种称为MLA的注意力机制。MLA通过低秩key-value联合压缩,实现了比MHA更好的效果并且需要的kvcache要小很多。 2、DeepSeek采用DeepSeekMoE架构,这是一种高性能MoE架构,能够以更低的成本训练更强大的模型。 3、针对性的进行了AIinfra的优化。 基于这些技术的创新,其他的大模型想在短期实现类似DeepSeek同样的输出效率+效果下的价格是有难度的:1)DeepSeek算法开源,但是优化自己的模型需要时间;2)Moe对于Infra的要求更高,对于算力集群的架构搭建,是一个很高的门槛。 对于推理降价我们认为是行业趋势,对于C端应用的普及起到加速作用。过去一年半时间,国内模型在缩小和海外模型的差距。 序号 公司 降价时间 最高降幅 最低价(元/百万tokens) 1 深度求索 5月6日 - 1 2 智谱AiGLM-3Turbo 5月11日 80% 1 3 字节跳动Doubao-lite-4k 5月15日 - 0.3 4 阿里云Qwen-Long 5月21日 97% 0.5 5 百度ERNIESpeed、ERNIELite 5月21日 100% 免费 6 科大讯飞sparklite 5月22日 100% 免费 7 腾讯云混元-lite 5月22日 100% 免费 注1:统计时间2024年5月27日 注2:“-”为API首次发布 1.传统Transformer采用MHA(Multi-HeadAttention),但是kvcache会成为推理瓶颈。MQA(Multi-QueryAttention)和GQA(Grouped-QueryAttention)可以一定程度减少kvcache,但效果上不如MHA。DeepSeek-V2设计了一种称为MLA(Multi-HeadLatentAttention)的注意力机制。MLA通过低秩key-value联合压缩,实现了比MHA更好的效果并且需要的kvcache要小很多。 2.DeepSeek采用DeepSeekMoE架构,这是一种高性能MoE架构,能够以更低的成本训练更强大的模型。MoE此前都是8/16Expert选top2, DeepSeekV2设计了一种SharedExpert2+RoutedExperttop-6from160的新routing逻辑。 资料来源:https://github.com/deepseek-ai/DeepSeek-V2; https://www.zhihu.com/search?type=content&q=Deepseek%20infra 注:大模型推理性能优化的一个常用技术是KVCache,该技术可以在不影响任何计算精度的前提下,通过空间换时间思想,提高推理性能。Router是一个关键组件,主要用于在多个专家模型(ExpertModels)之间进行智能调度,以实现高效的资源分配和利用 理解AI技术对于大模型产品的价值:大模型的意义在于具有千人千面的生成能力——当前的AIGC产品,正如2012年上线的今日头条(千人千面的分发能力)。 理解AI社交产品的演进路径:AI社交产品的本质是AI小说,随着Sora等视频模型的逐渐成熟,后续有望推出千人千面的图片和视频生成,AI娱乐产品的成长路径远比2023年清晰。 千人千面 小说内容 生成 图:Character.AI聊天页面图:Linky聊天页面图:Talkie聊天页面 图:sora模型已经具有千人千面生成视频的能力 理解AI社交产品的短期制约:短期问题是在于赛道空间,长时间文字聊天的门槛比较高,当前AI社交产品用户规模受限。 理解AI社交产品的商业化潜力:当前的AI社交产品商业模型健康,已经探索出可持续的商业模型。由于娱乐产品的卖点很大程度来自微调,因此中国出海AI社交产品的商业化并不比characterAI弱。 40% 用户七日留存率 单用户日均会话次数(次) 40 30%30 20% 10% 0% 23Q2 23Q3 C.AIchatgpt 23Q4 24Q1 20 10 0 23Q3 C.AI 23Q4 chatgpt 24Q1 150 100 50 0 单用户日花费时间(分) 23Q323Q424Q1 C.AIchatgpt 0.40 0.30 0.20 0.10 - MAUARPU对比,TALKIE和Linky高于C.AI(美金) 230723082309231023112312240124022403 CharacterAITalkieLinky WWDC发布会要点:全新的个人化智能系统AppleIntelligence:为iPhone、iPad、Mac等一系列硬件产品提供各类AI功能,与iOS、macOS等系统紧密结合。利用用户的端侧个人信息来让AI真正成为一个了解用户的个人助手。苹果AI能力基本覆盖了所有重要的原生应用,并且作为系统级的AI,苹果的AI功能可以在APP中进行调用,让用户无需切换,就可以几乎无门槛使用到AI功能。 怎么看AppleIntelligence的影响:在苹果生态中打通的AI能力,邮箱、相册、siri等各类原生应用直接集成AI功能,让用户几乎无门槛使用到了AI功能,向C端用户潜移默化普及AI功能,凭借苹果广大的用户基础,将提升社会的AI化水平。WWDC2024有望成为苹果AI创新周期的起点,系统级的AI也为第三方应用AI创新提供土壤。 图:全新的个人化智能系统AppleIntelligence图:苹果系统级集成了AI功能 投资建议:加大板块配置,包括AI落地能力较强的龙头品种,以及伴随着行业变革有望受益的相关标的。 AI落地领先:昆仑万维(公司AI应用稳步上台阶,近期公司海外AI社交应用LINKY更新,排名持续上涨,公司将直接获益于 模型能力提升及成本下降带来的增长红利),产业链相关或垂直领域推荐焦点科技、视觉中国(关注)、万兴科技、中文在线、 美图、上海电影等。 出版板块:前期有所回调,估值有安全边际,股息率有吸引力,相关标的:山东出版、凤凰传媒、中原传媒(关注)、南方传媒、皖新传媒(关注)、新经典(关注)等。 影视板块:博纳影业、芒果超媒、万达电影等。 游戏板块:恺英网络、神州泰岳(关注)等。 2.算力:光通信板块逻辑持续强化 各环节头部玩家持续布局,RoCE将加速落地:产业链中的博通、英伟达、Meta等均已开发出数代RoCE相关产品、应用,无论是在供给端还是需求端,目前RoCE都展现出 广阔的应用前景 博通:公司从控制器、适配器、NIC、交换机四方面入手,目前已有超30种相关产品,如基于第四代RoCE推出单端口400GbE以太网适配器N1400GD和单端口400GPCIe以太网NICP1400GD,主要应用于AI、云计算、高性能计算和存储的网络构建 英伟达:先前的SpectrumSN4000和SpectrumSN5000交换机便基于RoCE开发,今年推出与IB新产品同规格的Spectrum-X800交换机,并计划于2026年推出带宽再翻倍的下一 代产品 META:作为创始成员成立UEC超以太网联盟,持续推进RoCE开发,并已成功将400Gbps互连架构运用于Llama3集群 RDMA可以满足AI计算高并发、低时延要求:和之前的TCP/IP软硬件架构相比,RDMA使得通信系统直接通过网卡访问GPU显存数据,流程无需经过操作系统或CPU,这 种高吞吐、低延迟的网络通信非常适合在大规模并行AI计算集群中使用。目前支持RDMA的网络有Infiniband、RoCE(RDMAoverConvergedEthernet)、iWARP Infiniband:专为RDMA设计,从硬件级别保证可靠传输,应用效果好,但是需要IB网卡和交换机支持,成本高昂,且先前应用基础薄弱 RoCE:基于以太网,消耗的资源更少,可以使用普通的以太网交换机,但是需要支持RoCE的网卡,且先前在云计算中有深厚应用基础 IB是AI算力建设早期局部最优解,RoCE是更广范围内的最优解:在AI算力建设加速之初,高吞吐、低延迟的网络要求需要支持RDMA的网络通信,英伟达的GPU+IB架构 是短时间内快速、保质、保量实现算力落地的局部最优解;但长期看,成本更低且云厂商有丰富积累的RoCE有更大概率成为最优解 RDMA和传统TCP/Ip对比三类RDMA网络对比 基本面上,随着AI推理占比提升、AI算力集群中RoCE技术日益成熟,以太网/RoCE将来到AI算力舞台中心: 云厂自建加速带来光模块新增量:各大云厂均有深厚的以太网算力集群投资建设经验,相比IB会以更大力度投资建设,800G光模块等产品需求得以加速增长。 英伟达需求的分流无需过于担心:一方面,英伟达的客户结构越来越多样化,大型云厂客户在公司数据中心业务收入占比由FY24Q4的50%以上降低至FY25Q1的45%左右,同时后续主权AI、企业计算、自动驾驶等垂类均将增长至贡献数十亿美元收入,客户、需求结构还会进一步优化;另一方面,对于上游光模块供应链而言,目前英伟达更多扮演前沿产品迭代引领者及新产品需求推动者的角色,当前节点针对英伟达的需求应更多关注明年上量的1.6T光模块。 云厂&英伟达供给格局向好:云厂在先前的传统算力建设中已经形成了成熟稳定的供应商体系,且为了满足更高的互联要求并平衡开支、功耗,云厂及英伟达将寻求硅光、 LPO、1.6T、3.2T等新技术新产品以更高速度迭代,头部厂商的供应格局有望进一步优化。 市场演绎上,截止一季度末,“易中天”(新易盛,中际旭创,天孚通信)的机构投资者占比分别为33%、57%、67%,我们认为在赛道拥挤度高+产业链信息密集背景下,股价未能充分反映我们对板块景气度的合理预期,更多的“相信”是在“看见”后才发生,例如上周的上涨。因此我们认为后续板块