华为光接入 华为公司副总裁、华为数据存储产品线总裁周跃峰日前已透露,7月份将向全球发布面向大模型的新款存储产品。 图|“大模型时代华为AI存储新品发布会”议程 周跃峰表示,在通用大模型与行业大模型的训练推理中面临着诸多数据难题:海量数据跨域归集慢、预处理与训练中数据交互效率低、数据安全流动难。AI大模型对存储带来了新的挑战,比如稳定性相较传统AI更差,同时有大量的数据预处理和准备工作,需要用近存计算来系统性处理这个问题。 ▌近存计算是什么? 近存计算属于存算一体,后者也被称为“AI算力的下一极”,方正证券认为其有望成为继CPU、GPU之后的算力架构“第三极”。 近存计算中,计算操作由位于存储区域外部的独立计算芯片/模块完成。这种架构设计的代际设计成本较低,适合传统架构芯片转入。如今近存计算技术早已成熟,被广泛应用在各类CPU和GPU上。 现任中国科学院微电子研究所副所长、研究员曹立强及副研究员侯峰泽在《前瞻科技》的一篇文章中写道,近存计算的算力高、精度高,它是一种基于先进封装的技术途径,通过超短互连技术,可实现存储器和处理器之间数据的近距离搬运。 近存计算的典型代表之一便是AMD Zen系列CPU,而将HBM内存(包括三星的HBM-PIM)与计算模组(裸Die)封装在一起的芯片也属于此类。特斯拉、三星、阿里巴巴、英特尔、IBM等均已布局近存计算。 其中,三星在今年在CES上展示了支持超大规模AI模型的近存计算技术CXL-PNM。据公司介绍,该技术在更靠近存储器的地方实现数据处理功能,可将人工智能模型的加载速度提高2倍,容量提高4倍。 阿里巴巴达摩院也曾定制设计一款近存计算芯片并发布论文,该芯片基于西安紫光国芯SeDRAM平台,对比采用英特尔Xeon Gold 5200@2.20GHz平台的系统,该芯片对特定的人工智能应用场景,性能提升10倍以上,能效则提升超过300倍。
|