您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:大模型时代华为AI存储新品发布会速递!���事件:2023年7月 - 发现报告
当前位置:首页/会议纪要/报告详情/

大模型时代华为AI存储新品发布会速递!���事件:2023年7月

2023-07-14未知机构花***
大模型时代华为AI存储新品发布会速递!���事件:2023年7月

大模型时代华为AI存储新品发布会速递! ���事件:2023年7月14日,华为在深圳召开《数据新范式释放AI新动能》——大模型时代华为AI存储新品发布会。 会上发布面向基础/行业大模型的OceanStorA310深度学习数据湖存储和面向行业大模型训练/推理的FusionCubeA3000训/推超融合一体机大模型时代华为AI存储新品发布会速递! ���事件:2023年7月14日,华为在深圳召开《数据新范式释放AI新动能》——大模型时代华为AI存储新品发布会。 会上发布面向基础/行业大模型的OceanStorA310深度学习数据湖存储和面向行业大模型训练/推理的FusionCubeA3000训/推超融合一体机。 ���AI大模型开发应用面临四大挑战 1、数据准备时间长:数据来源分散,归集慢,预处理时间长,百TB级需10天→数据编织,近存计算 2、训练集加载效率低:模型参数大,干亿级、万亿级,小文件性能差,数据加载不足100MB/→海量小文件高吞吐 3、训练过程易中断:参数频繁调优,训练平台不稳定,平均约2天中断一次→Checkpoints并行高带宽 4、企业实施门槛高:系统搭建繁杂,资源调度难,GPU资源利用率不到40%→站式交付 ���面对挑战,华为AI存储新品应运而生#OceanStorA310 当前全球性能密度最高存储(80G/U),可实现从数据预处理和模型训练推理。 支持混合负载,可实现预处理训练;同时具备HTC同源数据分析能力;热温冷数据智能分级流动,实现AI数据全生命周期管理。 【数据编织】内置全局文件系统GFS,可实现跨系统的、跨地域、跨多云的全局统一。 【近存计算】存储内嵌算力,实现近数据预处理,避免数据在传统的系统当中存储、GPU之间的无效搬移,预处理效率提升30%以上。 【参数】96盘NVMeSSD/框|400GBps带宽/框|1200万IOPS/框|4096节点横向扩展|全系统PCIe5.0设计。#FusionCubeA3000 内置存储节点为OceanStorA300,存算独立扩展,存储、计算独立扩展至32节点;实现快速部署,支持5秒故障监测,5分钟恢复,降低AI大模型部署与使用门槛;通过高性能容器实现GPU池化共享,资源利用率从不到40%提升至70%。 【商业模式】异腾一站式方案/第三方GPU一站式方案