AI智能总结
我们认为对ChatGPT流量的统计存在显著低估;同时,仅通过应用访问量判断AI市场热度的观点,并未深刻理解Open AI等巨头的商业战略和产业发展。我们认为,所谓ChatGPT的“流量瓶颈”,主要由以下三方面原因导致,分别是1、Open AI战略,流量高低在API结构;2、算力短缺;3、访问时长(ChatGPT限流)+访问人数(部分地区封锁账号)。 OpenAI的战略是避免与客户竞争争夺流量,希望更多客户接入API,ChatGPT的愿景是成为一个超级智能的工作助手。我们认为今年席卷的AI浪潮本质上是生产力的革命,一个爆款现象级应用的流量暴涨仅仅是一个产业开启的前奏。关注第二第三梯队应用发展更能够客观感受到整个行业的繁荣。Open AI受限于GPU,算力仍为稀缺资源,整体行业需求依旧有较大释放空间。OpenAI存在对一些地区产品使用的限制,我们认为若将来未覆盖市场进一步开放,有望看到流量的二次增长曲线。 大模型型应用加速落地,桌面端+移动端构筑AI生态。目 前,Open AI API接口+plugin插件打造AI助手已初步落地,从网络浏览器、代码解释器到第三方工具,联网功能全场景应用。此外,ChatGPT已经推出iOS版应用程序,移动端已经推出联网模式,有望开启ChatGPT第二波成长曲线。此外,Open AI持续深化布局,据The Information最新消息,OpenAI正准备发布一个类似App Store针对定制化模型/软件的交易市场平台。我们认为随着桌面端的布局日臻完善,移动端将成为大模型厂商的主战场。 我们判断AI的趋势正从供给侧转向应用侧。大模型具有“预训练+精调”等功能,显著降低AI开发门槛,即“低成本”和“高效率”。模型侧,以Open AI为例,模型迭代进度明显加快,GPT-4、多模态、AI生成图片、AI生成视频等算法逐步点燃AI领域,模型迭代速度持续加快,我国大模型“自研热”持续,自研速度处于加速状态。因此我们认为在供给侧持续高爆发的情况下,应用侧有望爆发,服务场景进一步拓宽,成为真正意义上解放生产力的双手,我们认为数据有望成为应用侧的核心壁垒。 投资建议 我们认为OpenAI并未陷入流量“瓶颈”,算力侧和应用侧同样前景广阔,相关受益标的: 1)AI芯片厂商,相关受益标的为:寒武纪、海光信息、景嘉微、龙芯中科等; 2)AI服务器厂商,相关受益标的为:中科曙光、神州数码、拓维信息、工业富联、浪潮信息等; 3)AI云厂商,相关受益标的为:首都在线、鸿博股份、青云科技、优刻得、光环新网、新炬网络等; 4)AI+办公:金山办公、福昕软件、泛微网络、彩讯股份 、鼎捷软件等; 5)AI+金融:同花顺、财富趋势、新致软件等; 6)AI+医疗:润达医疗、万达信息、卫宁健康等; 7)AI+教育:佳发教育、鸥玛软件、科大讯飞等; 8)AI+军工:航天宏图、中科星图、华如科技等; 9)AI+其他:焦点科技、华宇软件等。 风险提示 核心技术水平升级不及预期的风险,AI伦理风险,政策推进不及预期的风险,中美贸易摩擦升级的风险。 1.ChatGPT流量复盘及分析 1.1.AI应用流量变化情况概览 ChatGPT自发布以来,访问量从去年12月至今年3月一直呈现高速增长态势,但从下图趋势可见,从今年4月开始访问量增速明显放缓,在5月、6月期间甚至出现单周负增长的现象(根据SimilarWeb数据,1月-5月ChatGPT访问量份环比+131.6%/+62.5%/+55.8%/+12.6%/+2.8%) 。 因此 , 市场出现担心AI热减退、ChatGPT被高估的声音。 我们认为对ChatGPT流量的统计存在显著低估;同时,仅通过应用访问量判断AI市场热度的观点,并未深刻理解Open AI等巨头的商业战略和产业发展。现阶段,单从ChatGPT访问量判断行业发展已经相对片面,应当从更长期的视角甄别数据理解底层逻辑。 我们认为,所谓ChatGPT的“流量瓶颈”,主要由以下三方面原因导致,在下文中我们将详细分析这些观点,并对接下来AI应用的发展趋势和特征给出判断: 1、Open AI战略在于避免与客户竞争,下一个流量高地在API接口 2、GPU短缺算力限制 3、访问时长(ChatGPT限流)+访问人数(部分地区封锁账号) 1.2.Open AI剑指消费级企服平台:“ChatGPT+API”新结构 首先,需强调Open AI的战略是避免与客户竞争争夺流量,希望更多客户接入GPTAPI,希望客户自己的产品通过使用API变得更好。据华尔街见闻,很多的开发者说,他们在使用OpenAI的API构建产品时,担心OpenAI会发布竞品,但OpenAI未来不会发布超过ChatGPT的更多产品。ChatGPT的愿景是成为一个超级智能的工作助手。 在理解Open AI重点不在C端的战略背景下,进一步分析流量统计逻辑。由于SimilarWeb的技术限制,上文图1的访问量数据不包含OpenAI API接口的流量,仅仅包括ChatGPT应用网站的访问量,这意味着随着OpenAI接口生态完善,该统计数据偏离更显著。因此,我们从1)其他AI Chat网站热度、2)To B企业端对AI模型的消费需求、3)第二三梯队AI应用爆发三个维度追踪行业现状。 以近期新的明星产品Character.ai为例,它是一个目前主要针对娱乐需求的AI Chatbot(排除API统计口径干扰)。Characterai公司致力于实现与计算机进行无限对话,正在研发下一代的对话机器人技术,应用范围广流乏,包括娱乐、教育、常规问答等。该公司的"对话机器人基于自有的大型语言模型技术,从头开始构建和训练,专为对话而设计。用户负责编写一个角色的台词,机器人负责创作另一个角色的台词,给用户一种在与另一个角色对话的体验。 通过Character.ai分析AI Chat未失真的娱乐需求数据,根据SimilarWeb统计,今年3月第一周的访问量约为 21.4M ,到5月的第三周其访问量已经增至 70.6M ,增加超三倍。同时,近三个月内Character.ai的用户平均访问时长接近30分钟较为稳定。 ChatGPT降低费用门槛,To B端企业集成部署需求旺盛。据财联社消息,今年3月2日,ChatGPT官方API发布,价格为1ktokens/$0.002,即每输出100万个单词需要2.7美元(约18元人民币),比此前GPT-3.5模型价格降低90%。我们认为开放API、降低Token费用,能够大幅促进更多应用接入ChatGPT,丰富生态,这也可以解释在该阶段造成对ChatGPT的分流(可再次回顾图1)。 以llamaindex.ai为例(一定程度上反映企业端AI大模型需求),该网站前身为GPT ndex。Llamalndex是一个数据框架,可以为大语言模型提供数据摄取、数据索引和查询引擎。Llamalndex可以将大模型和企业数据连接起来,做定制化的LLMs,管理数据流和任务调度。根据华尔街见闻消息,lamaindex.ai周计方问量同比成长122.69%。和它类似的工具还有LangChain,现在全球越来越多的公司开始把自然语言融入产品进行交互,而新的开发方式意味着新的技术栈。 对于To B端的企业需求分析,还可以通过开发者社区的活跃程度侧面印证。 以Hugging Face为例,它是机器学习开源参考模型的强大引擎,使得开发者可以构建、训练并部署最先进的模型。这是一个高速发展的社区,据NLP日志录数据,包括Meta、Google、Microsoft、Amazon在内的超过5000家组织机构在为HuggingFace开源社区贡献代码、数据集和模型。目前包括模型236,291个,数据集44,810个。刚开始大多数的模型和数据集是NLP方向的,但图像和语音的功能模型正在快速更新中。Hugging Face这类开发社区的野蛮生长同样意味着B端和部分C端加速应用部署模型态势不减。 我们认为今年席卷的AI浪潮本质上是生产力的革命,一个爆款现象级应用的流量暴涨仅仅是一个产业开启的前奏。现阶段,除了以ChatGPT为代表的标杆应用,关注第二第三梯队应用发展更能够客观感受到整个行业的繁荣。目前有越来越多的应用开始发力,几乎每周都有新的爆款。 1.3.Open AI受限于GPU,算力仍为稀缺资源 根据极市平台消息,OpenAI的CEO-Sam Altman在采访中透露,目前OpenAI面临非常严峻的GPU限制,这也延迟了他们一些短期计划的实施。近来,客户投诉最多的是关于API的可靠性和速度问题,据Sam解释,大部分问题是由于GPU短缺造成的。 在处理文本方面,更长的32k上下文还不能面向更多人推出。现在OpenAI还没有完全克服注意力机制的O (n^2)扩展问题,虽然OpenAI似乎很快就能实现100k-1M token上下文窗口(在今年内)文本处理,但更大的文本处理窗口需要进一步的研究突破。除此之外,目前微调API也受到GPU供应的限制。OpenAI尚未使用像Adapters或LoRa这样的高效微调方法,因此微调运行和管理起来计算都非常密集。Sam透漏更好的微调技术将在未来推出,他们甚至可能提供一个社区专门研究模型。专用容量提供也受到GPU供应的限制。OpenAI还提供专用容量,为客户提供一个私有的模型副本。要使用此服务,客户必须愿意预先承诺支出10万美元(约合68.7万人民币)。 根据我们的测算,ChatGPT产品运营需英伟达A100 GPU约71296片,预计投入算力成本达17.73亿美元。据SimilarWeb数据,2023年5月(至5月24日)ChatGPT官网(chat.openai.com)总访问量为14.08亿次。据环球零碳研究中心数据,每次用户与ChatGPT互动,ChatGPT的每个响应词在A100 GPU上需要350毫秒。除了支持ChatGPT产品本身的运营,还有上述微调API及专用容量等的算力需求。因此我们认为目前算力仍然是制约AI应用发展的重要一环,整体行业需求还有较大释放空间,这也是近期访问量趋缓的原因之一。 根据极市平台消息,Sam在采访中分享OpenAI API的近期路线图,主要分两个阶段: 2023的路线 1、OpenAI的首要任务是推出更便宜、更快的GPT-4:OpenAI的目标是尽可能地降低智能成本(the cost of intelligence),因此随着时间的推移,API的成本将会降低; 2、更长的上下文窗口:在不久的将来,上下文窗口可能高达100万个token; 3、微调API:微调API将扩展到最新的模型,但确切形式将由开发人员决定; 4、状态API:现在调用聊天API时,必须反复地通过相同的会话历史,并一次又一次地为相同的token进行支付,将来版本的API可以记住会话历史记录; 2024年路线 5、多模态:这是作为GPT-4版本的一部分进行演示的,但在更多GPU上线之前不能扩展到所有人。 1.4.OpenAI限流+账号封锁,“主动”控制流量 根据蓝点网科技资讯,今年3月OpenAI连续大幅缩减付费用户GPT-4提问次数,GPT-4刚推出的时候订阅会员可以率先体验,每4小时可以提问100次,随后提问次数又被缩减为50次,最后变为订阅会员仅能在3小时内提问25次。今年6月,OpenAI再次取消了ChatGPT手机版GPT-4无限次提问,也改变为3小时提问25次(经蓝点网测试,移动端限制暂未覆盖全部用户)。 我们认为限流一方面是因为OpenAI在推出订阅会员时没有预估到如此高的付费率,以至于配额超限,希望减轻负载压力。另一方面是由于OpenAI平台战略(可回顾1.2部分分析),对于C端意在保持一定量的基础上,着重提升交互的质量,因此会在一定程度上控制或收缩C端流量。 OpenAI存在对一些地区产品使用的限制。包括中国在内的7个国家无法访问ChatGPT。同时,近期OpenAI决定暂