應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

將 GPU 塞進(jìn) HBM,英偉達(dá)攜手 Meta 等探索突破 AI 算力瓶頸

2025-11-27 09:35 IT之家
關(guān)鍵詞:英偉達(dá)AI算力

導(dǎo)讀:報(bào)道稱英偉達(dá)攜手 Meta、三星電子、SK 海力士等科技巨頭,為提升 AI 性能,正探索將 GPU 核心集成至下一代 HBM(高帶寬存儲(chǔ)器)的技術(shù)方案。

  11 月 26 日消息,韓媒 ETNews 11 月 26 日發(fā)布博文,報(bào)道稱英偉達(dá)攜手 Meta、三星電子、SK 海力士等科技巨頭,為提升 AI 性能,正探索將 GPU 核心集成至下一代 HBM(高帶寬存儲(chǔ)器)的技術(shù)方案。

  據(jù)多位業(yè)內(nèi)人士透露,Meta 和英偉達(dá)正在積極探討此方案,并已開始與三星電子、SK 海力士進(jìn)行合作洽談。

  援引博文介紹,該技術(shù)旨在打破傳統(tǒng)計(jì)算架構(gòu)中內(nèi)存與處理器分離的模式,通過在 HBM 的基底裸片(Base Die)中植入 GPU 核心,實(shí)現(xiàn)計(jì)算與存儲(chǔ)的深度融合。

  HBM 作為一種通過垂直堆疊多個(gè) DRAM 芯片實(shí)現(xiàn)的高性能存儲(chǔ)器,專為處理人工智能(AI)所需的海量數(shù)據(jù)而設(shè)計(jì),其最底層的基底裸片目前主要負(fù)責(zé)內(nèi)存與外部設(shè)備間的通信。

  即將于明年量產(chǎn)的 HBM4 已計(jì)劃在基底裸片上集成控制器,以提升性能和效率。而此次討論的“GPU 核心內(nèi)嵌”方案,則是在此基礎(chǔ)上更進(jìn)一步的重大技術(shù)跨越,它將原本集中于主 GPU 的運(yùn)算功能部分轉(zhuǎn)移至 HBM 內(nèi)部。

  將 GPU 核心植入 HBM 的主要目的在于優(yōu)化 AI 運(yùn)算的效率,通過將運(yùn)算單元與存儲(chǔ)單元的物理距離縮至最短,可以顯著減少數(shù)據(jù)傳輸延遲和隨之產(chǎn)生的功耗,從而減輕主 GPU 的負(fù)擔(dān)。

  這種“存內(nèi)計(jì)算”的思路,被視為突破當(dāng)前 AI 性能瓶頸的關(guān)鍵路徑之一,有助于構(gòu)建更高效、更節(jié)能的 AI 硬件系統(tǒng)。

  要實(shí)現(xiàn)這一設(shè)想仍面臨諸多技術(shù)挑戰(zhàn)。首先,HBM 基底裸片受限于硅通孔(TSV)工藝,可用于容納 GPU 核心的物理空間非常有限。

  其次,GPU 運(yùn)算核心是高功耗單元,會(huì)產(chǎn)生大量熱量,因此如何有效解決供電和散熱問題,防止過熱成為性能瓶頸,是該技術(shù)能否落地的關(guān)鍵。