互联网传媒 行业研究/深度报告 从ChatGPT等生成式AI的算力开销及商业化潜力,看微软和谷歌面临的挑战 报告日期:2023-02-21 行业评级:增持 主要观点: 生成式AI对搜索引擎是否存在威胁? 类似ChatGPT的生成式AI在搜索领域实现替代仍然面临诸多 行业指数与沪深300走势比较 2/225/228/2211/222/23 10% 0% -10% -20% -30% -40% 挑战,生成式AI技术需要先达到一定程度的“规模优势(包括预训练数据集规模,用户反馈量)”之后才有机会威胁到搜索引擎的生存地位。这种“规模优势”既意味着模型可以解决问题的领域在数量上足够庞大,又意味着同一个领域中模型可交付出的解决路径数量最够庞大。 这种“规模效应”的达成有2个制约因素:1)用户习惯的颠覆。 传媒沪深300 分析师:金荣 执业证书号:S0010521080002邮箱:jinrong@hazq.com 相关报告 ·公司点评:快手-W(1024.HK)22Q4前瞻:商业化及流量盘稳健,降本增效持续2023-01-30 ·深度点评:东方甄选:借流量红利起步,有望靠品牌红利起飞2023-01-19 ·公司点评:微盟集团(2013.HK):SaaS业务量价齐升,视频号起量充分获益2023-01-19 ·公司深度:遥望科技(002291.SZ):多引擎驱动收入增长,大中台彰显规模效应2023-01-18 ·行业点评:3年1月游戏版号下发,腾讯黎明觉醒和网易逆水寒均获批2 023-01-18 ·公司点评:携程集团-S(9961.HK):“新十条”放宽出行限制,单季盈利表现不俗2022-12-19 基于当前技术迭代路径的“搜索引擎(包括Google,Baidu,和Bing 等)”已经教育了市场将近25年以上的时间,颠覆用户习惯需要极大的动能,这种动能一定是基于“替代方案”的效率要比“现存方案”优越数倍以上;2)生成式AI的模型进化的本质是依赖于对庞大的数据集的训练和微调,其背后的算力支撑是重要的技术驱动因素,而算力支撑取决于芯片技术(材料、设计、生产工艺)及“异构计算技术”的发展进程(包括计算开销的下降和计算交付结果精确程度的提高)。 生成式AI的算力需求 根据NextPlatform对前期训练(不含微调)的估算,GPT-3175B的模型的每次训练成本在875万–1093.75万美元之间,对应花费 时间在110.5天-27.6天,每1百万参数的训练价格是50美元-62.5美元之间。根据CerebrasAImodelstudio的GPT-3模型训练服务 (基于4-nodeCS-2cluster)的报价信息,GPT70B(700亿参数, 14000亿Tokens,85天训练时间)的训练价格在250万美元每次。 生成式AI的商业化潜力 类似ChatGPT的生成式AI,在不久的将来,生成式AI有较大可能在“智能客服”和“搜索引擎”进行增值,并有较大可能以“插件”的形式赋能现有的“生产力工具链(工程软件/音视频制作工具等)”。 微软和谷歌共同和分别面临的挑战 无论对于微软还是谷歌而言,由于“生成式AI”所带来的行业变革处于爆发的早期,行业的天花板较高,并且AI技术的上游硬件厂商也会微软等模型层和技术层厂商产生溢价,所以“赢者通吃”或“强者恒强”的局面并不会出现。 其共同面临的挑战包括:1)面临细分领域(电商,社交,游戏)的威胁或直接竞争,威胁包括细分领域数据集获得难度增大,竞争包括细分领域巨头直接下场竞争并更易于满足细分领域用户需求。2)算力开销驱动营业成本增加,生成式AI在发展早期的商业化绩效目标需要被理性的界定清楚。早期的发展,需要有持续的现金牛业务 支撑AI明星业务的研发及运维开支,同时也要避免业务间存在内部不配合和摩擦。3)如全球通胀及供应链扰动持续,生成式AI模型层和应用层等下游环节厂商所创造的价值不断转移到上游的硬件或者能源厂商。比如,高端GPU/FPGA的厂商较为集中,而可替代品有限,上游厂商有较强溢价权。 微软面临的挑战包括:1)因为是引领GPT技术发展的领先企业,所以在面临政府或公益组织对其生成式AI生产内容的法律及道德问题时也是首当其冲;2)在智能手机操作系统、娱乐、文化、快消、电商等领域的数据积累有限,在这些领域进行模型训练的学习曲线依然很陡峭;3)如果微软同时掌握了用户接入操作系统,办公软件,和生成式AI搜索引擎的入口,则将需要面临更多“反垄断”相关的问题。 谷歌面临的挑战包括:1)对话式AI的搜索方式如果走向普及,将威胁现有的点击付费的广告商业模式;2)对现有的搜索引擎技术有一定路径依赖,模型过于庞大和复杂,将生成式AI技术整合入搜索引擎需要更长时间的试错;3)缺少先发优势,OpenAI和微软合作更早更深远,而谷歌一直缺少对生成式AI技术落地的验证(Bard并未达到预期)。 投资建议 在模型层面和应用层面,建议关注在AI技术领域有较强人才优势,同时有成熟的商业化产品支撑其创新的科技型企业,包括:百度集团-SW,阿里巴巴-SW,网易-S,Microsoft,Google等 风险提示 全球通胀和宏观经济下行,供应链扰动和贸易摩擦,导致AI计算领域上游硬件供需错配;生成式AI产品的商业化表现不及预期;生成式AI产品带来更多法律及道德风险 正文目录 1关于CHATGPT要知道些什么?5 1.1CHATGPT的基本概念及原理5 1.2“生成式AI”的算力成本8 1.3“生成式AI”面向B端和C端的潜在场景10 2“生成式AI”商业化潜力初探12 2.1“生成式AI”在智能客服领域的潜在应用12 2.2“生成式AI”在搜索引擎领域的潜在应用15 2.3“生成式AI”作为生产力工具插件的潜在应用17 3从“生成式AI”看微软和谷歌面临的挑战18 3.1微软和谷歌共同和分别面临的挑战18 3.1微软AI产品赋能回顾19 3.2谷歌AI产品赋能回顾23 风险提示:25 图表目录 图表1CHATGPT工作原理简要流程图5 图表2CHATGPT工作流程6 图表3CHATGPT使用案例–与机器人对话查找代码错误7 图表4TRANSFORMER模型结构7 图表5CEREBRASMODELSTUDIO对不同GPT模型的训练成本报价8 图表6GPT各模型的训练成本8 图表7GPT3各类模型的训练的参数量9 图表8英伟达A100核心参数9 图表9生成式AI(GENERATIVEAI)面向B端的潜在场景10 图表10生成式AI(GENERATIVEAI)面向C端的潜在场景11 图表11全球“对话AI(CONVERSATIONALAI)”市场空间13 图表12“智能对话机器人”在各领域全球市场空间(亿USD)13 图表13全球“智能对话机器人”智能客服领域市场空间(亿USD)14 图表14智能对话机器人-电商客服领域全球市场空间测算(亿USD)14 图表15谷歌服务(GOOGLESERVICES)收入(亿USD)15 图表16“生成式AI”对搜索引擎的影响16 图表17生成式AI与搜索引擎结合面临的挑战16 图表18“生成式AI”作为嵌入式插件的潜在应用领域17 图表19微软和谷歌共同和分别面临的挑战18 图表20“生成式AI”的应用–新BING(NEWBING)搜索案例展示19 图表21“生成式AI”的应用–新BING(NEWBING)可对话的领域举例20 图表22微软具有代表性的AI赋能产品和项目21 图表23微软AI技术突破时间线22 图表24TRANSFORMER模型中引入的ATTENTION机制示意图23 图表25谷歌巴德(GOOGLEBARD)案例–规划旅行路线24 图表26谷歌具有代表性的AI赋能产品和项目24 1关于ChatGPT要知道些什么? 1.1ChatGPT的基本概念及原理 ChatGPT是OpenAI公司发布的“语言模型”,该“模型”采用大规模的自然语言(naturallanguagemodel)算法,这个“模型”拥有和用户之间的交互界面,用户可以将问题提交给“模型”,然后“模型”做出回复,就好比是在和一个智能的机器人进行文字对话。 AI应用分成分析型AI应用和生成式AI应用。其中,分析型AI应用已经被广泛使用,包括短视频推送、人脸识别、搜索分类、语音助手和等;生成式AI还并未被广泛应用,生成式AI的应用包括书写文字段落,生成图片,和生成代码等。 ChatGPT是一种生成式AI。ChatGPT的工作原理可以简单的类比为,机器通过阅读人类说出前半句话是什么,然后预测人类想要得到的后半句话应该是什么,可以类比为诗词填空,出题人(即,人类)给出诗词的前半句,然后让答题者(即,机器)填写后半句。达成这个目标,需要用人类已经存在的语料信息、图片信息或代码信息等作为数据集,对模型进行训练,所以模型的认知边界将不断的趋近但无法超越人类自身的认知边界。简要的来说,GPT模型的实现有2个关键环节:第一,需要先用大量的数据对AI 模型进行预训练,得到预训练模型;第二,在这个基础上进行一些人为的标注,进行微调,提高其预测的准确度和可靠性。比如,要生成一个可以正确地帮助人类规划旅行路线的模型,模型的开发人员会使用规模极大的数据集(包含酒店信息、旅行路线请求信息、地图信息、天气信息等)去进行模型的预训练,得到一个通用的预训练模型;然后在这个通用模型的基础上,使用外包的人工标注团队,开展人工标注,对一些细节进行标注,比如将已经停业的酒店标注出来,确保最终ChatGPT在规划旅行计划时不包括这些已经停业的酒店。 图表1ChatGPT工作原理简要流程图 资料来源:InfoQ,华安证券研究所 根据OpenAI发布的信息,ChatGPT的训练流程具体包括3部分:1)收集“展示数据(DemonstrationData)”并训练出基于监督学习的决策策略;2)收集对比数据训练奖励模型;3)使用PPO强化学习算法针对奖励模型优化策略。ChatGPT目前基于GPT-3和GPT-4技术之间,GPT-3于2020年发布,GPT-4有望于2023年上半年发布。ChatGPT的开发者采用了监督学习(SupervisedLearning)和强化学习(ReinforcementLearning)算法去微调(fine-tune)ChatGPT模型;其中,开发者采用了具有人类反馈的强化学习算法(ReinforcementLearningfromHumanFeedback,RLHF),最小化了模型所输出回答和真实情况的偏差度。 从技术的起源来看,ChatGPT(全称:ChatGenerativePre-Trainedtransformer),采用了生成式的预训练的“Transformer”模型,而Transformer模型于2017年由谷歌的研究人员在论文《Attentionisallyouneed》中发布,这个模型促成了自然语言学习(NLP)领域中GPT和BERT这2大模型的发展。这些年,在自然语言学习(NLP)领域,Transformer模型逐步替代RNN(循环神经网络)和CNN(卷积神经网络);比如,相比于RNN模型,Transformer模型引入了自我注意力(Self-attention)机制,结合算法优化,可以实现并行运算,大量节约训练时间。 ChatGPT的回答包括不限于以下几个方面:1)直接回答问题;2)做文字的摘要;3)写代码和查代码错误;4)语言翻译;5)撰写演讲稿和故事等。比如,一个经典的使用案例就是用户可以在和ChatGPT模型的对话框中,复制一段程序代码并向ChatGPT提问如何修改以下这段代码以确保这段代码可以正常工作,然后ChatGPT会进行回应,将指出代码的出现的问题所在。 图表2ChatGPT工作流程 资料来源:OpenAI官网,华安证券研究所整理 图表3ChatGPT使用案例–与机器人对话查找代码错误 资料来源:OpenAI官网,华安证券研究所 图表4