【招商电子】英伟达发布H200点评:首次配备更高容量HBM3e,预计24Q2开始出货 H200首次配备141GBHBM3e,相比H100,预计24Q2开始发货。 根据英伟达11月13日官网信息,NV推出Hopper架构的H200全新AI计算平台芯片,H200是首款提供HBM3e的GPU,可加速生成式AI和大型语言模型,同时推进HPC工作负载的科学计算。 借助HBM3e,H200显存 【招商电子】英伟达发布H200点评:首次配备更高容量HBM3e,预计24Q2开始出货 H200首次配备141GBHBM3e,相比H100,预计24Q2开始发货。 根据英伟达11月13日官网信息,NV推出Hopper架构的H200全新AI计算平台芯片,H200是首款提供HBM3e的GPU,可加速生成式AI和大型语言模型,同时推进HPC工作负载的科学计算。 借助HBM3e,H200显存大小为141GB,显存带宽为4.8TB/s,与前身A100相比,容量几乎翻倍,带宽增加2.4倍,和H100的算力指标保持一致。 公司表示H200预计于24Q2开始向全球系统制造商和云服务提供商供货。 H200与H100相比在Llama2模型推理性能几乎翻倍,未来软件更新预计会带来持续性能改进。 根据H200和H100在大模型推理性能上的结果对比,对于130亿参数的Llama2、1750亿参数的GPT-3、700亿参数的Llama2,H200的推理性能预计是H100的1.4X、1.6X、1.9X,同时公司预期未来的软件更新会给H200持续带来性能领先优势和改进。 支持NVLink高速互连,可用于GH200GraceHopper超级芯片系统。 H200将应用于具有四路和八路配置的H200服务器主板,这些主板与H100系统的硬件和软件兼容,还可用于8月份发布的采用HBM3e的GH200GraceHopper超级芯片,H200由NVLink(900GB/s)和NVSwitch高速互连提供支持,八路H200提供超过32petaflops的FP8深度学习算力和1.1TB聚合高带宽内存,可在AIGC和HPC应用中实现最高性能。 关注HBM、先进封装和高速互连等产业链。 继前期中国区特供版H20新品后,英伟达此处再次推出王炸产品H200,此次升级主要在HBM3e,单芯片HBM容量提升有望进一步提升HBM需求,全新H200支持更高性能LLM训练和推理,建议关注全球HBM和先进封装产业链,同时关注英伟达产业链相关的服务器ODM厂商、存储、PCB/IC载板、连接器及线缆、散热、电源、模拟芯片、接口类芯片、RAID卡、功率器件等环节厂商。 国产算力虽短期距离国际水平有较大差距,但建议持续关注关注寒武纪、海光信息等国产GPU/CPU厂商和华为昇腾自主算力产业链相关公司。