2026-04-07 20:50来源:本站

编者按:在人工智能浪潮席卷全球的今天,算力竞赛已进入白热化阶段。当我们聚焦于GPU的飞速迭代时,一个更深层的变革正在内存领域悄然发生。韩国科学技术院(KAIST)的金正浩教授近日发出预警:当前以HBM(高带宽内存)为主导的架构,已难以承载AI未来对海量数据“记忆”的饥渴。他提出,一场从“书架”到“图书馆”的内存革命迫在眉睫,而一种名为HBF(高带宽闪存)的新兴技术,或将与HBM形成“热冷互补”,成为打破AI算力瓶颈的关键桥梁。这不仅是技术的演进,更可能重塑全球半导体产业格局,为在存储领域拥有深厚积淀的企业带来历史性机遇。以下为金教授观点的详细解读。
“在人工智能时代,每个人将需要100TB的内存。这就是所谓的‘内存饥渴’时代。未来的AI时代,高带宽内存将负责处理速度,而高带宽闪存将管理容量。”
韩国科学技术院电气工程学院的教授金正浩,于3日上午在首尔中区某新闻发布厅举行的“HBF研究介绍与技术开发战略简报会”上发表了上述观点。金教授被公认为是AI半导体核心技术——HBM的概念提出者及基础设计技术的奠基人。他的工作为三星电子和SK海力士等公司启动HBM业务奠定了基础。目前,他领导的KAIST Tera实验室正在开展HBF技术的研究。
金教授强调,“仅靠HBM不足以跟上AI发展的步伐”,并强调需要一种具有更大容量的新型存储技术。他将当前的HBM比作GPU旁边的“书架”,而HBF则是支撑它的“图书馆”。HBF是一种通过垂直堆叠NAND闪存,同时实现高带宽和大容量的技术。其优势包括比HBM更低的功耗,以及更容易实现大容量存储。
他还将AI内存分为“热内存”和“冷内存”。HBM将处理需要即时计算的热内存,而负责存储海量历史数据的冷内存,将依赖于基于NAND闪存的存储。
他解释道:“例如,如果要求AI‘画出童年模样’,它必须调取过去的数据。这个角色由冷内存承担,而非HBM。”
问题在于,当前的计算机架构未能跟上AI的进化步伐。即使GPU能快速处理数据,但当需要从连接在中央处理器上的遥远存储中读取大型数据集时,瓶颈就会出现。
“在融合图像、视频、声音和文档的多模态AI环境中,传统方法无法解决速度延迟问题。需要进行结构性变革,将大容量内存直接放置在GPU旁边。HBF将充当这座桥梁。”他说。
他补充道:“虽然AI性能竞赛一直由图形处理器引领,但未来内存将变得更为关键。有了HBF,AI计算将再次实现飞跃。”
金教授预测,随着AI时代推进,这一转变将有利于三星电子和SK海力士等韩国公司。这些公司是全球少数同时拥有HBM技术、NAND闪存和封装能力的厂商,这为它们拓展HBF业务提供了技术基础。
他指出:“谷歌拥有海量数据的优势,但缺乏晶圆厂和内存封装能力。而这正是三星和SK海力士的优势所在,是它们坚不可摧的竞争力。”
他估计,HBF的商业化将在2027年末至2028年左右实现。他预测,初期将应用于AI推理,结合HBM和HBF的混合内存很可能成为标准配置。