【东财电子】AI浪潮黄金时代,存力与算力并重 AI大模型实现需海量数据和强大算力来支撑训练和推理过程。 OpenAI原始GPT模型大小为1.5亿个参数,GPT-3参数已达1750亿个,其使用大约45TB文本数据进行训练,对数据存储具有挑战性需求。AI数据模型丰富程度在一定程度上决定AI智能程度,更大数据模型才能进一步推进AI实际应用。 从GPT-3到ChatGPT再到GPT-4,大量对话为OpenAI提供海量训练模型文本继续推动GPT发展,也将对下一代AI应用带来更大计算、存储压力 AI训练通常是读密集型数据,可能面对快速访问并读取数十亿非结构化数据的挑战,AI技术快速发展,大算力和算法固然重要,但海量数据的存储与读取同样不容忽视,只有承载数据、驾驭数据,才能驱动AI大模型进一步演进迭代推动第四次科技革命的到来 此外,在冯·诺依曼架构中存储与处理器完全分离,两者间数据交换通路窄能耗高,在存储与运算间筑起“存储墙”。存算一体化将运算从中央处理器转入内存进行,缓解数据搬运,可大幅降低数据交换时间及存取能耗。