您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:计算机周报:谷歌的“帝国反击战”:AI从云到边的拐点 - 发现报告
当前位置:首页/行业研究/报告详情/

计算机周报:谷歌的“帝国反击战”:AI从云到边的拐点

信息技术2023-05-14吕伟民生证券℡***
计算机周报:谷歌的“帝国反击战”:AI从云到边的拐点

计算机周报20230514 谷歌的“帝国反击战”:AI从云到边的拐点 2023年05月14日 市场回顾 本周(5.8-5.12),沪深300指数下跌1.97%,中小板指数下跌1.84%,创业板指数下跌0%,计算机(中信)板块下跌1.82%。板块个股涨幅前五名分别为:信息发展、拓尔思、左江科技、新国都、佳发教育;跌幅前五名分别为:高伟达、神州泰岳、彩讯股份、先进数通、网宿科技。 行业要闻工信部:2023年第一季度软件业务收入24415亿元,同比增长13.5%。乘联会:合资新品推出速度偏慢,对车市影响大幅减弱。中汽协:2023年4月新能源汽车产销64/63.6万辆,同比增长1.1倍。 工信部:第371批申报新能源汽车产品公示,共有156户企业的440个型号。 公司动态 广联达:5月8日消息,公司拟向全体股东每10股派发现金股利4元(含税),以资本公积金向全体股东每10股转增4股。金现代:5月9日消息,公司控股股东黎峰拟以大宗交易方式合计减持公司股份不超过600.00万股,占公司总股本1.39%。普联软件:5月9日消息,公司2022年度向公司全体股东每10股派发现金红利3.00元(含税),共计派发现金红利43,132,414.20元(含税)。 锐明技术:5月12日消息,公司股东赵志坚等拟减持公司股份不超过 10,520,900股,占总股本的6.0824%。 本周观点 谷歌PaLM2在移动端顺利部署使AI边缘部署走进现实。谷歌发布了AI+安卓、AI+边缘设备(主要是可穿戴设备)以及AI+安卓APP的DEMO和专业为安卓开发程序的机器人StudioBot,基于安卓的边缘AI生态雏形已经建立,未来,谷歌将发布从头训练的Gemini大模型,可以提供各种规模的型号,使Gemini可以被部署在全部设备,扩充边缘AI支持的品类的同时,打通从云到边的AI全链路。当前市场聚焦于云端大模型AI以及上游算力等环节,对于边缘AI预期差较大,4月14日OpenAI开始招聘移动端工程师,谷歌在边缘AI布局更为中科创达明确横向扩品类、纵向做应用的发展路径,而中科创达先发优势显著,中科创达近期发布Rubik或为谷歌PaLM2国内最稀缺的对标大模型,建议关注中科创达、科大讯飞等大模型落地终端交互革命的“卖铲人”。 风险提示政策落地不及预期;行业竞争加剧。 推荐维持评级分析师吕伟执业证书:S0100521110003电话:021-80508288邮箱:lvwei_yj@mszq.com相关研究1.计算机周报20230506:AI行稳致远的基础:全球AI监管知多少-2023/05/062.计算机行业动态报告:AI引领计算机超级行情的当前阶段-2023/05/053.计算机行业深度报告:人工智能:史上最伟大的科技革命-2023/05/044.计算机周报20230502:计算机年报与一季报总结:寒冬已过,初沐春风-2023/05/035.计算机行业点评:强烈看好支付板块:低估值+Q1高增-2023/05/03 目录 1本周观点3 1.1谷歌从云到边AI布局全梳理3 1.2谷歌AI未来发展方向9 2下周投资提示14 3行业新闻15 4公司新闻16 5本周市场回顾18 6风险提示20 附录21 插图目录22 表格目录22 1本周观点 1.1谷歌从云到边AI布局全梳理 2023年5月11日,谷歌在开发者大会2023勾画出清晰的从云到边全AI战略框架,发布全球首个支持边缘端的大模型PaLM2和正在内测中的更强模型Gemini近况。梳理发布会内容,谷歌未来的AI战略从云到边依次为: 1)云端是美国云计算巨头的主战场,谷歌以谷歌云为核心,打包新发布的基于H100的训练平台A3以及MaaS平台VertexAI等AI能力; 2)PC端是当前全球各类企业大模型开发、应用开发的主战场,谷歌以基于PaLM2的Bard为核心,全面赋能地图、搜索等各类应用,同时开发对标微软MS365Copilot的DuetAI,开发插件平台等; 3)边缘端是谷歌优势最大的市场,据Investing分析,谷歌在边缘端不仅拥有安卓生态和对应的开发生态,还在芯片、数据、场景、用户、设备等领域都处于领先地位。谷歌全球首发支持边缘部署的大模型PaLM2、正在开发的更强更适配边缘的大模型Gemini以及搭配自研芯片TensorG2(含TPU)的各类终端设备,显示出谷歌大力进军边缘端大模型市场,边缘大模型AI有望接替PC端大模型AI、云端算力成为下一个兵家必争之地。 图1:谷歌从云到边AI战略框架 资料来源:CSDN,民生证券研究院 一个更小但具有更高质量的模型显著提高了推理效率,降低了服务成本,并使模型的下游应用程序适合于更多的应用程序和用户,使AI边缘部署成为可能,谷歌基于边缘AI成功落地,正不断横向扩品类、纵向打造应用生态,有望重现安卓生态发展的黄金十年。 云端算力:AI云平台VertexAI和超算中心A3 谷歌AI云平台VertexAI是谷歌的AI云平台,用于训练和部署AI模型。VertexAI结合了数据工程、数据科学和机器学习工程工作流,提供了多种模型训练选项:1)借助AutoML训练表格、图片、文本或视频数据,不需要编写代码,也不需要准备数据集;2)自定义训练能够完全控制训练过程,包括使用偏好的AI框架、编写自己的训练代码以及选择超参数调节选项。此外,VertexAI还支持生命周期的端到端MLOps工具自动执行和扩缩项目。 图2:VertexAI架构 资料来源:谷歌云,民生证券研究院 步骤功能概述 谷歌AI云平台VertexAI覆盖AI训练、开发、部署等全生命周期,为从数据到训练、批量或在线预测、调节、扩缩和运维,VertexAI可提供必要的所有工具。表1:谷歌VertexAI功能 为整个机器学习工作流提供统一界面 VertexAI将GoogleCloud服务整合到一个统一的界面和API中。在VertexAI中,您现在可以使用AutoML或自定义代码训练轻松训练和比较模型,所有模型都存储在一个中央模型代码库中。这些模型现在可以部署到VertexAI上的相同端点。 轻松地将视觉、视频、翻译和自然语言机器学习融入现有应用,或在广泛的使用场景(包括翻译和语音转文 用于视觉、视频、自然语 字)中构建全新的智能应用。AutoML使开发人员能够以最少的机器学习专业知识或工作量训练特定于其业 言等领域的预训练API 务需求的高质量模型。具有跨数据类型(视觉、自然语言和表格)的所有数据集的中央管理注册表。 训练 数据和AI的端到端集成 通过VertexAIWorkbench,VertexAI与BigQuery、Dataproc和Spark原生集成。您可以使用BigQueryML针对现有商业智能工具和电子表格使用标准SQL查询在BigQuery中创建和执行机器学习模型,也可以将数据集从BigQuery直接导出到VertexAIWorkbench并从那里运行您的模型。使用VertexDataLabeling为您的数据收集生成高度准确的标签。 开发 VertexAI与广泛使用的开源框架(如TensorFlow、PyTorch和scikit-learn)集成,并通过用于训练和 支持所有开源框架 预测的自定义容器支持所有机器学习框架和人工智能分支。 VertexAIVision将计算机视觉应用创建时间从数周缩短为几小时,费用是当前产品费用的十分之一。提供端到端应用开发环境易于使用的拖放界面,以及用于常见任务(例如入座率统计、产品识别和对象检测)的预训练模型库。您还 可以选择从VertexAI导入现有的AutoML或自定义机器学习模型。 部署MLOPS全生命周期数据准备、特征工程、参数调节、模型服务、模型调整、模型监控、模型管理等。 资料来源:谷歌云,民生证券研究院整理 A3超算平台是谷歌最新推出的8xH100的GPU平台,可以提供26exaFlops的顶级算力。A3超算平台搭载8xH100的GPU组合,通过NVIDIANVSwitch和NVLink4.0保证GPU之间互联速度达到3.8TB/s,此外还拥有下一代第四代英特尔至强可扩展处理器、2MHzDDR4800的5TB主机内存和公司定制的IPU、专用服务器GPU、通信堆栈和NCCL优化提供支持的网络带宽等。 预训练模型:自有模型与开源生态相结合 谷歌模型库服务持续扩充中。谷歌将自由模型和合作伙伴的模型进行预训练,通过API、在GenerativeAIStudio中调用,或在VertexAI中直接训练等方式供用户使用,当前模型库中的预训练大模型已经超10种。 图3:谷歌模型库 资料来源:谷歌云,民生证券研究院 PaLM2开创小规模高性能AI的新范式,使AI移动端部署成为可能。根据谷歌《PaLM2TechnicalReport》,PaLM2在最优模型尺寸计算、数据集改进、更好的模型框架和建模目标三大方向进行优化,最终得到能够在边缘设备部署的大模型PaLM2Gecko: 1)最优模型尺寸计算:谷歌通过研究发现,数据集大小至少与模型大小一样重要,数据集和模型大小应该大约1:1以达到给定数量的训练计算下的最佳性能,当前模型的扩展速度比数据集快3倍。谷歌在实验中设定了1×1019、1×1020、1×1021、1×1022四个大模型进行实验,正好与开发者大会2023发布的四款参数不同的模型形成映射。需要注意的是,体积最小的PaLM2性能比上一代5400亿参数得PaLM性能更强,体积最大的PaLM2参数量小于5400亿。 图4:谷歌研究表明最优的数据集和模型大小比例应该大约1:1 资料来源:《PaLM2TechnicalReport》,民生证券研究院 2)数据集改进:以前的大型预训练语言模型通常使用以英语文本为主的数据集,谷歌设计了一种更多语言和更多样化的训练前数据集,扩展了数百种语言和领域(例如,编程语言、数学和并行多语言文档)。实验表明,更大的模型可以处理更多不同的非英语数据集,而不会导致英语理解性能下降,并应用重复数据删除来减少记忆。 3)更好的模型框架和建模目标:谷歌将大模型的底层框架由Transformer升级为Transformer+UL2(谷歌于2022年5月10日开源),同时使用不同的训练前目标来训练模型,以理解语言的不同方面。UL2框架使用去噪器混合物 (MoD),将不同的预训练范式结合在一起生成训练前目标,同时引入模式切换的概念,与下游微调合特定的预训练方案相关联。 图5:UL2算法示意图 资料来源:谷歌,民生证券研究院 AI开发生态:自有框架TensorFlow以及AI全生命周期开发工具 谷歌将自身AI应用开发做到标准化,只需五步即可生成: 第一步,提出问题,可以灵活选用AIstudio等自动确定应用开发流程;第二部,选择数据集,可以使用谷歌庞大的数据集仓库; 第三步,特征工程,可以自由选择所需的开发框架并进行数据集预训练;第四步,建模训练,可以利用训练工具和谷歌云计算强化训练; 第五步,AI部署,谷歌拥有海量AI部署、测试、维护工具库。 通过谷歌标准规范且功能强大的AI开发生态,用户可以快速、高效、负责任地构建大模型、AI及相关应用。 图6:谷歌AI应用开发流程 资料来源:谷歌AI,民生证券研究院 5月11日,AI开发工具迎来重大更新,PaLM2大模型API以及相关的AI开发工具加入,目前有114类AI开发工具和最新的无代码AI应用开发机器人StudioBOT。用户可以通过PaLMAPI构建生成式AI应用程序,使用MakerSuite直接在浏览器中快速创建和原型化提示,无需机器学习专业知识或编码;此外,更新后,Firebase支持扩展访问PaLMAPI,MediaPipe跨平台AI训练框架拥有九种新解决方案;Kaggle的数据集和预训练模型,以及KerasCV和KerasNLP支持计算机视觉和自然语言处理易于使用的模块化库,用户可以在AI开发流程中使用各种工具