您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[佐思汽研]:2024汽车AI大模型TOP10分析报告 - 发现报告
当前位置:首页/行业研究/报告详情/

2024汽车AI大模型TOP10分析报告

信息技术2024-08-06-佐思汽研张***
AI智能总结
查看更多
2024汽车AI大模型TOP10分析报告

预训练 微调 预训练语言模型 将模型在大规模无标注数据上进行自监督训练得到预训练模型 将模型在下游各种自然语言处理任务上的小规模有标注数据进行微调得到适配模型 Big-dataDriven,模型基于大规模语料训练而成; Multi-tasksAdaptive,支持多种任务,包括自然语言生成NLG和自然语言理解NLU类的任务; Few-shot(Zero-shot),在少甚至无标注样本的条件下支持推理(自监督学习)。 AI大模型就是预训练语言模型 通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型 预训练语⾔模型“预训练+微调”技术范式 ⼤规模⽆标注 ⽂本数据 不同特定任务有标注训练数据 测试数据 模型预训练 模型微调 最终模型 产业研究战略规划技术咨询2 2017年,Google提出Transformer框架在机器翻译中取得显著进步,其分布式学习和强大编码能力受到广泛关注。 2018年Google和OpenAI基于Transformer提出了预训练语言模型BERT和GPT,显著提高了NLP任务的性能,并展示出广泛的通用性。 众多预训练模型相继涌现,OpenAI以GPT2、GPT-3、ChatGPT等系列模型为代表,持续引领大模型时代的浪潮 大模型发展历程 计 感算AlexNet 知 机(图灵奖得主 视Hinton) 觉 CAN (Gioodfellow.图灵奖得主Bengio) ResNet (MSR. 引用183222) ViT (Google) 跨模态模型 DALLE2 (OpenAI) GPT-4V (OpenAI) 201220132014201520162017201820192020202220222023 自然Word2VecAttentionTransformer(BERTGPT-2GPT-3FoundationPaLMChatGPT 认语(Google.(图灵奖得主Google.(Google)(OpenAI)(OpenAI)Model(Google)(OpenAI)知言引用78550)Bengio)引用91332)GPT(Stanford)ERNIE(百度)CPM(智源) 处(OpenAI)GLM(洁华)理 预训练模型 大模型 来源:大模型驱动的群体智能行业白皮书 产业研究战略规划技术咨询3 大模型参数规模不断增长,推动AIGC技术升级。AIGC技术发展的背后是大模型(FoundationModels)技术的持续迭代。从2017年Transformer结构的提出,加速了深度学习模型的参数学习能力。另一方面,GPU算力也在指数级增长。 图1:2018-2023年模型参数规模变化图图2:CPU与GPU算力演进比较 产业研究战略规划技术咨询4 英伟达每2年推出一个微架构,对产品线进行升级,6月2日,英伟达在Computex2024大会上发布了至2027年的芯片路线图,GPU迭代周期由2年缩短到1年,走类似英特尔的Tick-Tock模式(一年工艺一年架构)。同时,英伟达践行“BuyMoreSaveMore”让算力成本指数级下降。 图3:英伟达GPU架构演进图图4:训练芯片算力成本呈下降趋势 我国高端GPU芯片进口从2019年以来就一直有被限制,只是之前主要针对的厂商是AMD,在应用场景上又以超算中心为主; 2023年10月17日,美国加强了面向中国市场的AI芯片禁令。其中明确将性能、密度作为出口管制标准,将单芯片超过300teraflops算力,以及性能密度超过每平方毫米370gigaflops的芯片都纳入了禁止出口行列。禁令涉及A100、H100等主流AI训练用英伟达GPU。 来源:浙商证券研究所、华泰证券研究所 产业研究战略规划技术咨询5 行业高精数据短缺 商业化压力大 相较于英文、中文高质量开源数据非常少,特别是在构建通用领域大模型的百科类、问答类、图书贡献、学术论文、报告杂志等高质量内容 中文语料 短缺数据 数据和语料的同质化 全球化 人才经营 人才流失与, 人才短缺 产业研究战略规划技术咨询6 科技大厂创业新势力 产业研究战略规划技术咨询7 综合各测评平台的方法论来看,在基础能力的测评维度基本相同,仅测评数据集和评估权重占比不同;而在基础能力之外,各测评平台侧重点不同 騕阌Language 焒駮Knowledge 䲀槏Reason 俚㳔Math ♣焺Code ⪼♑Other OpenCompass2.0⺶ⷂ      Agent IDC      ToC通用场景类 ToB特定行业类 屧⯈倁      产业研究战略规划技术咨询8 IDC测试题目分为基础能力和应用能力两个大类共7个维度 IDC采取实测的方式,成立产品测试团队,通过多个维度对基础大模型及相关产品进行评测,并邀请外部专家团队深入分析各个产品答案准确性、合理性等,在审核委员会的监督下,最终得出各厂商的评估结果,供用户选型参考。 㕈熝茤ⲇ 问答 代码类 䍎氠茤ⲇ 理解类推理类 创作表达类 数学类 问答理解类 常识、专业知识、多语言、多模态、角色扮演+多轮对话、安全陷阱 推理类 情感推理、演绎推理、逻辑推理、归纳推理、类比推理 创作表达类 文字创作&创意、内容改写/续写、修改/润色、文字处理、编辑/语义匹配、摘要提取、关键、字提炼、标题生成、文本风格迁移、图像创作、短视频创作(文生视频)、其他创作(文学艺术、商业通用) 数学类 小学数学、初中数学高中数学、高等数学 推理类 代码生成、编程翻译代码解释、代码纠错代码自动补全 生成代码文档单元测试 toC通用场景类 生活助手办公工具 工业:产品设计辅助&&生产规划 教育:智能问答、试题生成 法律:智能法律助手,法律咨询医疗:问诊,用药咨询 科研 金融:推荐场景 金融/咨询服务:财报/市场分析 互联网/媒体:文案/海报设计、广告词创作、视频生成场景 零售/电商:客服问答 toB特定行业类 产业研究战略规划技术咨询9 Pangu5.0 Yi-Large GLM-4 Baichuan4 CongRong2.0 产业研究战略规划技术咨询 10 我们跟踪研究了多个通用大模型,其中包括: Ernie-4.0 Qwen-Max-0428 SenseChatV5 TencentHunyuan Spark4.0Ultra 在2024年,大模型的技术发展将趋向多功能与小型化,同时产业端将强调自主研发和行业标准化 䪫勘盛 ☋╃盛 模型整合统一 未来的技术演进方向是实现大模型底层框架的整合与标准化,从多样的架构(如双编码器、单边解码等)转向统⼀的、效率最优化的开源底层框架,提升模型的通⽤性和可维护性。 参数规模扩展 为确保模型质量和性能,未来的大模型将采⽤更深层的⽹络结构和更庞⼤的数据集进⾏预训练,尤其在数据量和参数量上将迎来显著跃升。 多模态融合 大模型将逐渐融入图⽚、⾳频、视频等多种模态信息,实现跨模态的交互与理解,从⽽拓宽其应⽤场景和实⽤价值。 大模型小模型化 在产业应⽤层⾯,结合底层基础大模型和针对特定⾏业的精简数据微调,将训练出更为实用、更易于产业落地的小型化大模型。 为确保中国大模型的长远发展和避免外部制裁风险,国内AI计算芯片的自主研发将成为关键战略方向。 优化和完善现有数据标准和规范,是推动大模型“燃料”质量提升和数量增长的重要驱动 力,在2024年将作为产业发展的首要任务。 为满足产业实际需求并适应中小企业的发展特点,“套壳”微调(即在现有大模型基础上进⾏针对性调整)将成为除行业巨头外企业的主要发展策略。 随着大模型性能的飞速提升和实⽤性的增强,确保AI技术与社会伦理道德标准相⼀致将成为⼤模型持续发展的关键考量因素。 来源:沙利文中国大模型测评报告 产业研究战略规划技术咨询11 㝕埛㒘僓♣溸䷧㸸㴼䔾 大模型的知识密度每8个月左右会翻一倍,同等知识量的模型参数量会减半 右图显示了过去四年大语言模型在MMLU榜单(评估大模型知识能力)上的性能表现,红色曲线表明,大模型的知识密度平均每8个月左右会翻一倍,同等知识量的模型其参数量会减半 知识密度=知识量/参数量 ꁩ⹜㎃䌑㝕騕阌埛㒘㐃M┪M溸L䙎U茤囒銩⶿楓駬⛓㝕埛㒘焒駮茤ⲇ 来源:面壁智能公众号 产业研究战略规划技术咨询12 긖㚧冝茤 在2024年5月发布的多模态大模型MiniCPM-Llama3-V2.5仅凭8B参数,实现了“以最小参数,撬动最强性能”的最佳平衡点。 갫濫㝃僓埛ꭊ䘒㙨埛ꪍ㒘⹨俚GPꓪT婞-4㐃Vꄢ寊庱䌐罥溸⭀┯⻎ 面壁智能迭代的最新版本MiniCPM-S1.2B采用了高度稀疏架构,通过将激活函数替换为ReLU及通过带渐进约束的稀疏感知训练,巧妙地解决了此前主流大模型在稀疏激活上面临的困境。 在通用大模型越来越卷参数规模和算力的情况下,如何通过架构和算法创新去规避算力和成本的短板,我们认为小参数、高性能模型是一个重要的趋势,特别对于手机、车载终端而言,这样的端侧模型具有现实的需求。 来源:面壁智能公众号 产业研究战略规划技术咨询13 与百度的方案类似,各科技大厂基于云平台、算力基础设施和大模型技术相结合,推动行业应用落地,汽车产业链当然也 是最重要的落地场景之一。 来源:文心一言官网 产业研究战略规划技术咨询 14 砯岻呻厜┪ 文心一言沿袭了ERNIE3.0的海量无监督文本与大规模知识图谱的平行预训练算法,模型结构上使用兼顾语言理解与语言生成的统一预训练框架。为提升模型语言理解与生成能力,研究团队进一步设计了可控和可信学习算法。 駕绿┪ 结合百度飞桨自适应大规模分布式训练技术和“鹏城云脑Ⅱ”领先算力集群,解决了超大模型训练中的多个公认技术难题。在应用上,首创大模型在线蒸馏框架,大幅降低了大模型落地成本 对自动驾驶而言,与所有AI应用类似,算力、算法、和数据三要素都必不可少 砯ⲇ㺂긖规模法则驱动下,海量的算力成为开发优秀AI算法的基础 俚䰕做긖数据的体量、质量、以及收集方式、处理方式、以及模型的训练和验证体系都考验着开发者的技术和工程能力 砯岻㺂긖如何构建一个性能优异且稳定可靠的算法来支撑功能落地,亦尤为关键 端到端模型 多模态大语言模型 AGI 通用世界模型 产业研究战略规划技术咨询15 㝕㐙埛冎㒘 场景 数据服务 •单一场景的技术积累; •广泛的汽车行业客户与量产应用; •可以允许“套壳”与API调用; •单场景技术方向的领先发展潜力; 㝕鉿埛╃㒘 ꄽ氠㝕埛㒘 算法 场景数据 算力算法 数据框架 •多场景的覆盖能力与量产应用; •持续的产品迭代能力; •走向通用世界模型的潜力; •四种竞争要素缺一不可; •持续的产品迭代能力; •逐步建立于自研芯片或者国产芯片的算力建设; •汽车行业的合作与量产应用; 产业研究战略规划技术咨询16 ꄽ氠㝕埛㒘⪫⺶┬屋鉿╃䍎氠㐙冎╭勨⸅⻔璇䪫⚕╃鿛㒘 蔦Ⲙ뎴뎬做呿ガ⹿㺥㒍稝㝕埛㒘 ㎃稝 ⹨┱脢 Tier1䳀둛㵊䨮俠✅闌⬑做呿皶◚ⲇ 产业研究战略规划技术咨询17 䍎 ❵ 1供应商1 供应商2 ガ供应商3 蔦Ⲙ뎴뎬冝茤䍵薷煝⹿駦駉觝ꨆ䲀䌦㵊䨮劚ⲏ騕꼟ⲙ䩘俚㲼㳙气⪾麄冝茤 ⪫ 2尸鿕 ⺶ 气 3⮃鉿 䘒 主机厂1主机厂2 …… 主机厂N公司1公司2 产业研究战略规划技术咨询18 FSDV12.3 XGPT DriveGPT2.0 DFM-2 MiniCPM 产业研究战略规划技术咨询 19 Ernie-4.0 SenseChatV5 TencentHunyuan Spark4.0Ultra Pangu5.0 百度 BAIDU 倁䖦┞阌㝕埛㒘 2024年6月28日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰在WAVESUMMIT深度学习开发者大会 2024上宣布了文心一言的最新数据,并正式发布文心大模型4.0Turb