您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[华西证券]:海外模型应用复盘:国内AI奇点已至 - 发现报告
当前位置:首页/行业研究/报告详情/

海外模型应用复盘:国内AI奇点已至

信息技术2023-10-11刘泽晶、赵宇阳华西证券
海外模型应用复盘:国内AI奇点已至

华西计算机团队 2023年10月11日 首席分析师:刘泽晶 SACNO:S1120520020002 邮箱:liuzj1@hx168.com.cn 分析师:赵宇阳 SACNO:S1120523070006 邮箱:zhaoyy1@hx168.com.cn 请仔细阅读在本报告尾部的重要法律声明 证券研究报告|行业深度研究报告 海外模型应用复盘:国内AI奇点已至 计算机行业动态 模型层面,GPT-4领先,多模态演进趋势加速。 ChatGPT推出以来,大语言模型(LargeLanguageModel,LLM)技术的发展取得突破性发展,越来越多的大模型犹如雨后春笋般破土而出,目前最为先进的模型为GPT-4,性能大幅领先市面上的其他模型。同时根据founderpark,OpenAI估值目前也是此前微软投资时近3倍。 当下LLM模型的规模持续增长,参数量已远远超过千亿级别,多模态崭露头角。1)模型规模的增长带来性能的提升,但是同时对模型的训练和部署也带来了挑战。以OpenAI为代表的人工智能公司,已经开始就模型训练和部署提供收费服务,在推动LLM技术发展的同时,为企业带来营业收入。2)OpenAI、Google等大模型厂商或将纷纷推出多模态大模型,打开下游应用想象空间。 应用层面,参照海外落地路径,国内纯模型端、教育、办公、图像、视频、金融、医疗、社交类特别是C端应用值得关注。 部分企业已经开始赚取收入,而新进入的公司仍然在积极拓宽业务的受众范围。LLM技术的发展为其产业链中下游应用端的开发打下了坚实的基础,相关企业针对不同的场景开发应用产品,产品涉及语音、图像、文本和多模态领域,覆盖办公、金融、多媒体、工业制造、社交和营销等多个行业。 国内纯模型端、教育、办公、图像、视频、金融、医疗、社交类应用值得关注。参考海外AI应用成熟度发展情况,我们根据AI收入端、产品端、案例端等综合分析海外垂直应用进展,得到目前纯模型端、办公、图像、视频、金融、社交类应用商业化落地最快,国内模型端相对海外大概滞后1年时间,参照海外应用发展情况,我们认为Q4或是国内应用商业化落地拐点。 受益标的:1)模型端:拓尔思、360、科大讯飞;2)AI+教育:科大讯飞、佳发教育、盛通股份、捷安高科、世纪天鸿、皖新传媒、鸥玛软件;3)AI+办公:金山办公、汉得信息、彩讯股份、赛意信息、泛微网络、致远互联、用友网络、金蝶国际、梦网科技;4)AI+医疗:润达医疗、健麾信息、万达信息;5)图像/视频:万兴科技、美图公司、光云科技、新国都、虹软科技、当虹科技、大华股份、网达软件;6)AI+金融:指南针、同花顺、财富趋势、恒生电子。 风险提示:1)政策落地不及预期;2)技术发展不及预期;3)经济回暖不及预期。 模型/应用公司 年初市值水平(亿元) 年初 PE/PS 2023年9月28日市值(亿元) 2023年9月28日PE/PS 涨跌变化 模型/应用网站浏览量(过去28天日均人次) Openai(模型) 290(微软投资时) - 800-900 - 175.86%- 210.34% 49470000 Meta(模型) 3,190.87 11.07 7,821.38 34.69 145.12% 117635 多邻国(AI+教育) 28.57 28.57 66.10 14.94 131.35% 19158 Salesforce(AI+CRM) 1,325.90 476.94 1,977.14 125.29 49.12% 611021 Amazon(模型) 8,569.39 75.68 12,998.30 99.44 51.68% - Adobe(AI+办公/图像, 视频) 1,564.53 32.90 2,297.76 44.87 46.87% 9308000 Google(模型) 11,484.32 17.14 16,730.54 27.54 45.68% 63527 Microsoft(AI+办公) 17,877.32 25.62 23,302.71 32.20 30.35% 33100000 SAP(AI+ERP) 1,267.69 40.28 1,576.07 28.04 24.33% <5000 Recursion(AI+医疗) 13.34 0.00 16.45 -6.33 23.26% <5000 摩根大通(AI+金融) 3,932.58 11.17 4,289.09 9.31 9.07% 160611 资料来源:wind(PE与PS均为TTM),similar,Founderpark公众号、华西证券研究所 注:Amazon无单独模型网站,因此不做统计 01主要大模型汇总:GPT-4领先,多模态演进趋势加速 模型名称 是否开源 参数量 预训练数据量 发布时间 GPT-4 否 - - 2023年3月 GPT-3 否 175B 300Btokens 2022年3月 DALL·E2 否 10B - 2022年4月 DALL·E3 否 12B - 2023年9月 PaLM2 否 340B 3.6Ttokens 2023年5月 RT-2 否 55/12/5B - 2023年7月 Stablediffussion 否 1B - 2022年8月 ClaudeV1 否 50B - 2023年3月 Llama 是 65B 1.4Ttokens 2023年2月 Falcon 是 40B 1Ttokens 2023年6月 Cohere 否 52B - 2023年6月 Titan 否 - - 2023年4月 MT-NLG 否 530B 270Btokens 2022年1月 Gopher 否 280B 300Btokens 2021年12月 Chinchilla 否 70B 1.4Ttokens 2022年3月 BLOOM 是 176B 366Btokens 2022年11月 OPT 是 175B 180Btokens 2022年5月 GLM-130B 是 130B - 2022年8月 6月发布GPT-3,参数量1750亿,同时推出了GPT-3API,允许开发者通过API接口访问该模型,同年9月,OpenAI获得了由多家风投公司参与的D轮融资,估值高达100亿美元。 1.1OpenAI:打开LLM新纪元,打开LLM新纪元,GPT-4多模态再升级 3月发布InstructGPT,11月30日发布基于GPT-3.5的聊天机器人ChatGPT。同年发布Whisper语音识别模型和DALL-E2模型 2022年 OpenAI成立,公司的目标是确保AI能够安全地为全人类造福,同时也致力于解决AI发展过程中可能出现的伦理和安全问题。 第一代模型GPT-1发布,参数量1.1亿。 2018年 GPT-2多个版本发布,参数量从1.25~15亿,OpenAILP成立,开启商业化模式,与微软建立起独家合作关系。 2019年 用于强化学习算法研究的平台Gym发布。 2015年12月2016年 2020年 2021年 图像生成模型DALL-E和多模态模型CLIP发布。 2023年 3月1日,新版GPT-3.5模型—gpt-3.5-turbo发布,3月14日GPT4发布,DALL-E3即将发布。 资料来源:维基百科、OpenAI官网、华西证券研究所6 GPT-3.5和GPT-4是OpenAI开发的大规模语言模型,目前最受欢迎ChatGPT便是在GPT系列模型基础上开发的,是人工智能(AI)技术的突破,彻底改变了我们与机器的沟通方式。作为LLMs技术的代表,GPT-4是目前公认的性能优越的大规模语言模型,但是其目前仅支持付费使用,基于GPT-3.5的客户端应用目前已经免费开放访问。根据AIGC开放社区,9月21日凌晨,OpenAI在官网宣布,在今年10月份将通过API向ChatGPTPlus和企业版用户提供全新文本生成图片产品——DALL·E3。9月25日,OpenAI宣布,GPT-4现已具备图像和声音处理功能。 GPT-4与GPT-3.5相比下的优势表现 GPT-4比其前身GPT-3.5先进10倍。这种增强使模型能够更好地理解上下文并区分细微差别,从而产生更准确和一致的响应。 GPT-4的最大token数量为32000(相当于25000个单词),这比GPT-3.5的4000个tokens(相当于3125个单词)有了显著增加。 GPT-4可以通过综合多个来源的信息来回答复杂的问题,而GPT-3.5可能很难将这些点联系起来。 GPT-4在理解和体会文本所表达的情感方面,比 GPT-3.5具有更大的优势。 GPT-4最令人印象深刻的一个能力是它可以理解 方言,并对复杂的方言给出准确的回答。 GPT-4相比于GPT-3.5,其在创作方面的能力更加优秀, 可以生成更加连贯和富有创造力的故事、诗歌或散文。 GPT-4显著提高了理解和处理复杂数学和科学概念的能力,包括求解复杂方程和执行各种数学运算的能力,如微积分、代数和解析几何。 GPT-4的编程能力优于GPT-3.5,可以更加高效的编写 代码或调试现有代码,提升软件开发人员的工作效率。 GPT-4可以分析和理解图片,但是GPT-3.5只能分析文本数据。 GPT-4实现了最小化不良结果的机制,从而增加了其 回答的可靠性和合规性。 资料来源:SearchEngineJournal、OpenAI公司官网,华西证券研究所7 DALL-E、DALL-E2和DALL-E3是由OpenAI开发的文本-图像模型,使用深度学习方法从自然语言描述中生成数字图像。最初的DALL-E是OpenAI在2021年1月5日的一篇博客文章中披露的,它使用经过修改的GPT-3模型来生成图像。2022年4月6日,OpenAI宣布了DALL-E2,它是DALL-E的一次版本迭代,旨在以更高的分辨率生成更逼真的图像,它可以巧妙地根据使用者提供的描述和风格来生成图片。2023年9月,OpenAI宣布了他们最新的图像模型,DALL-E3,与上一代DALL-E2相比,其予以图片细节更多的关注。 DALL-E3计划于2023年10月为ChatGPTPlus和ChatGPTEnterprise客户原生发布到ChatGPT中,并预计在今年晚些时候通过OpenAI的API和“Labs”平台可用。微软也计划在他们的DesignerAPP和图像创建工具中嵌入DALL-E3模型。 根据新智源报道,DALL-E3已经开始内测,并且内测的效果惊人,与ChatGPT合并,DALL-E3可以不需要prompt,而是由ChatGPT来生成相应的prompt,DALL-E3便可根据相应的prompt来进行图片的绘制,并还可以为其配上相应的图文介绍。 DALL-E3生成图片样例 资料来源:新智源、维基百科、华西证券研究所8 参数量为3.4亿,标志着LLM时代的到来。 T5 2022年1月 2021年12月 2021年9月 LaMDA Gopher FLAN 模型共有6个版本,参数量从4400万到2800亿。 参数量为5400亿,训练数据为7800亿token的高质量数据集。 Google首个DecoderonlyLLM,参数量为1370亿。 2018年10 月 BERT 2019年10月 参数量为1370亿,预训练数据集由2.97B的文档、1.12B对话和13.39B对话语料组成。 首次引入注意力机制,为以后的LLM发展奠定了基础。 参数量为110亿,基于Transformer框架,向下兼容BERT。 2014年7月 2022年4月 PaLM 2023年3月 PaLM2 PaLM-E 参数量为3400亿,训练数据为3.6万亿token,共有四个版本,擅长高级推理任务。谷歌即将推出Gemini。 参数量为562