「HBM之父」預言,AI架構將從GPU中心轉向內存中心——智能體AI時代的內存需求可能膨脹100萬倍,現有HBM技術將觸及天花板,以堆疊NAND爲基礎的新一代HBF技術有望於2027年出現工程樣品、2028年被谷歌或英偉達採用。SK海力士已聯手閃迪搶跑標準制定,三星同步佈局。
當AI從"生成"走向"自主行動",算力的瓶頸可能將從GPU轉移到內存。
據韓國《亞洲經濟》等當地媒體報道,被業界譽爲"HBM之父"的韓國科學技術院(KAIST)教授Joungho Kim近日發出預言:當前由英偉達主導的GPU中心化AI架構,終將被以內存爲核心的新架構所取代。
這一判斷的背後,是AI應用形態的根本性轉變。從生成式AI邁向智能體AI(Agentic AI),系統需要同時處理海量文檔、視頻及多模態數據——Kim將這一趨勢稱爲"上下文工程"(context engineering)的崛起。他指出,爲保障速度與精度,內存帶寬和容量必須提升最高1000倍。
數字更爲驚人的是需求端:據Money Today Broadcasting早前引述Kim的說法,輸入規模若擴大100至1000倍,內存需求可能呈指數級躍升,總量膨脹幅度或高達100萬倍。
HBM將觸及天花板,HBF接棒
Kim明確表示,現有HBM技術——通過垂直堆疊DRAM實現超高速傳輸,目前主導AI加速器內存市場——在智能體AI時代將難以爲繼。
他提出的下一代解決方案是HBF(High Bandwidth Flash,高帶寬閃存):以堆疊NAND替代DRAM,構建一個"巨型書架式"長期記憶體,容量遠超現有上限。
類比來看,HBM更像是桌面上的便籤紙——速度快但容量有限;HBF則像是一整面書牆,能存放的信息量級完全不同。
在架構層面,SK海力士已在IEEE發表的論文中提出"H3"架構——據《韓國經濟》2月報道,該架構將HBM與HBF並排部署於GPU旁側,而非現有設計中僅有HBM緊鄰處理器。這意味着GPU的角色將從"主角"退化爲"配角",計算單元被嵌入以內存爲主體的系統之中。
時間表已逐漸清晰。
據Kim的預測,HBF工程樣品預計將於2027年前後出現,谷歌、英偉達或AMD最早可能在2028年採用該技術。
這一節奏與HBM當年從實驗室走向大規模商用的路徑高度相似,也意味着產業窗口期已經開啓。
SK海力士與三星,再度正面交鋒
Kim同時指出,HBF領域的競爭格局將復刻HBM時代的劇本——SK海力士( $南方兩倍做多海力士 (07709.HK)$ )與三星電子( $南方兩倍做多三星電子 (07747.HK)$ )再度成爲主角。
目前,SK海力士已於今年2月聯合閃迪成立HBF標準化聯盟,意在搶佔生態系統主導權。三星則一方面持續推進HBM4E等下一代HBM產品,另一方面同步投入與HBF概念相符的NAND架構研發,據Aju News報道。
兩家巨頭的佈局路徑不同,但目標指向同一個賽道。誰能率先完成從標準制定到量產交付的閉環,將在很大程度上決定下一輪AI內存市場的格局。
想選股、想診股?想知持倉機會同風險?關於投資的一切問題,開口問牛牛AI就得啦!
編輯/joryn
