訂閱
糾錯(cuò)
加入自媒體

存儲猛拉,AI存力超級周期到底有多神?

在AI需求的帶動下,存儲行業(yè)從HBM領(lǐng)域延伸至傳統(tǒng)存儲領(lǐng)域開啟了本輪全面上行周期。以美光為例,在存儲產(chǎn)品持續(xù)漲價(jià)的帶動之下,公司的毛利率已經(jīng)到了相對高位。美光公司更是將下季度毛利率指引給到了66-68%,創(chuàng)出歷史新高,這也意味著這輪存儲周期的猛烈程度是高于以往的。

存儲產(chǎn)品的漲價(jià),其實(shí)本身也是存儲市場供需關(guān)系的反應(yīng)。本輪“供不應(yīng)求”的現(xiàn)象,主要是由AI服務(wù)器等相關(guān)需求的帶動。在當(dāng)前對于本輪存儲周期上行已是共識的情況下,海豚君將主要圍繞以下問題展開:

1)AI服務(wù)器中各類存儲都是什么角色,當(dāng)前AI存儲面臨怎么樣的問題?

2)三大原廠重視的HBM需求如何,是否存在供需缺口嗎?

3)AI需求爆發(fā)的情況下,對傳統(tǒng)存儲市場的影響如何,供給能跟上嗎?

AI 浪潮的爆發(fā)徹底重塑存儲行業(yè)格局,帶動HBM、DRAM、NAND、HDD等全品類存儲產(chǎn)品進(jìn)入全面上行周期。

從供需角度來看:①需求端,AI服務(wù)器從訓(xùn)練向推理的重心轉(zhuǎn)移,催生了對“低延遲、大容量、高帶寬”存儲的差異化需求;②供給端,存儲廠商資本開支向高附加值的HBM與DRAM傾斜,形成結(jié)構(gòu)性供需失衡,推動產(chǎn)品價(jià)格大幅上漲。

本文主要先解答1和2這兩個(gè)問題,至于傳統(tǒng)市場的影響,海豚君將在下篇中繼續(xù)展開。

當(dāng)前AI數(shù)據(jù)中心領(lǐng)域的核心矛盾是“內(nèi)存墻”瓶頸——算力增長速度遠(yuǎn)超數(shù)據(jù)傳輸速度,導(dǎo)致GPU等計(jì)算單元空置率高達(dá)99%

短期來看,HBM向16-Hi堆疊升級(帶寬提升至16-32TB/s)與3D堆疊SRAM的商用(延遲壓縮至 2ns)形成互補(bǔ)解決方案;中長期則依賴存算一體架構(gòu)的突破,徹底消除數(shù)據(jù)搬運(yùn)的速度問題。

在當(dāng)前AI存儲旺盛需求的情況下,HBM依然是三大原廠最為重視的存儲品類,HBM4也將在2026年開啟量產(chǎn)。

由于三大原廠(三星、海力士、美光)的資本開支主要投向于HBM領(lǐng)域,2026年HBM的供應(yīng)量有望增長60%以上。HBM需求量受AI芯片及CoWoS產(chǎn)能的影響,需求量有望提升至42億GB左右,HBM市場將呈現(xiàn)出“供應(yīng)緊平衡”的狀態(tài)。

下文將深入拆解存儲層級的核心角色定位、破解“內(nèi)存墻”的技術(shù)演進(jìn)路徑,并對HBM這一細(xì)分市場的供需情況方面展開全景解析,而在下篇文章中將圍繞傳統(tǒng)市場繼續(xù)展開,更清晰看到本輪AI 需求點(diǎn)燃的存儲行業(yè)超級周期。

以下是詳細(xì)分析

一、AI服務(wù)器帶來了怎樣的存儲大周期?

1.1AI存儲在服務(wù)器中的角色:

回歸計(jì)算機(jī)存儲最原始兩大性能維度:a. 存儲,作為數(shù)據(jù)倉庫,解決是倉庫到底有多大的問題;b. 延遲和帶寬,解決的是數(shù)據(jù)存入和取出的速度問題。

按這兩個(gè)維度,目前整個(gè)大存儲行業(yè)產(chǎn)品大致可以分為四大類——HBM、DRAM、NAND和HDD。

其中,HBM完全基于AI GPU而生的全新需求,通過Cowos封裝技術(shù),是是一個(gè)放在GPU“腦殼”的產(chǎn)品,延遲極低;而DRAM(簡單理解內(nèi)存條)讀取時(shí)間延遲也比較短,是更靠近但獨(dú)立于算力端(GPU、CPU)的“熱存儲”,這兩者其實(shí)都同屬于大類DRAM;而HDD雖然延遲較高,但具有大容量的“冷存儲”。

各類存儲產(chǎn)品在AI服務(wù)器中都是什么角色呢,具體來看:

a)HBM:和GPU芯片3D堆疊在一起,是GPU的“專用顯存”,具體高帶寬、高功耗的特點(diǎn),價(jià)格也相對較高。HBM是AI服務(wù)器的“性能天花板”,決定單GPU可承載的模型規(guī)模與響應(yīng)速度。

b)DRAM(DDR5):是數(shù)據(jù)交換樞紐,由CPU和GPU共用,連接著HBM與NAND的“橋梁”。雖然DDR5的速度比HBM慢一些,但容量大了很多倍。DDR5是AI 服務(wù)器的“內(nèi)存基石”,其容量決定單服務(wù)器可同時(shí)處理的任務(wù)數(shù),是處理并發(fā)任務(wù)的核心。

c)NAND(SSD):是熱數(shù)據(jù)倉庫,高頻訪問數(shù)據(jù)的“快速持久層”,連接著DRAM 與 HDD。作為AI 數(shù)據(jù)中心的“性能-容量平衡者”,SSD是訓(xùn)練數(shù)據(jù)“快速補(bǔ)給站”,也是推理服務(wù)“快速響應(yīng)核心”。

d)HDD:海量冷數(shù)據(jù)的低成本容器。HDD雖然帶寬最低,但具有大容量、成本低的特點(diǎn),適合低頻使用、長期存放存放的“冷數(shù)據(jù)”。HDD是AI數(shù)據(jù)中心的“容量基石”,決定整體數(shù)據(jù)存儲規(guī)模。

由此可見,一條很清晰的AI服務(wù)器數(shù)據(jù)流動路線:HDD的冷數(shù)據(jù)->SSD預(yù)熱->DRAM中轉(zhuǎn)->HBM配合計(jì)算,其中的各個(gè)部分在訓(xùn)練和推理服務(wù)器中都是所需要的。

1.2當(dāng)前AI存儲呈現(xiàn)什么樣的特點(diǎn)

本輪存儲大周期完全是由AI需求帶動,因而對AI存儲的表現(xiàn)也應(yīng)該主要從下游AI服務(wù)器的市場情況入手。

和上半年相比,AI服務(wù)器領(lǐng)域明顯出現(xiàn)了一些變化:

a)AI從訓(xùn)練向推理遷移:

①訓(xùn)練像是“一次性投入”,而推理更是商業(yè)化落地的“剛需場景”;

②訓(xùn)練端對性能的要求更高,成本隨著性能提升是增加的,而推理具有規(guī)模效應(yīng),可以通過批量處理來實(shí)現(xiàn)成本的攤薄。

在谷歌Gemini給出了不差于GPT的性能表現(xiàn)后,讓市場重新思考英偉達(dá)GPU領(lǐng)先的性能優(yōu)勢在大模型實(shí)際應(yīng)用中體現(xiàn)并不明顯。尤其在當(dāng)前AI向推理端側(cè)重的趨勢下,通過大規(guī);塬@得規(guī)模優(yōu)勢,定制ASIC芯片在推理端也是完全可以勝任的。

相比于AI訓(xùn)練服務(wù)器,AI推理服務(wù)器相對更注重于DDR(并發(fā)任務(wù))、SSD(快速響應(yīng))和HDD(大容量)。

b)算力轉(zhuǎn)向存力:之前市場關(guān)注點(diǎn)主要在算力,認(rèn)為算力越強(qiáng)大,模型的反應(yīng)速度也會更快。但其實(shí)在算力之外,還是需要存力來“投喂數(shù)據(jù)”的。如果存儲端“吐數(shù)據(jù)”的速度跟不上計(jì)算端,就會出現(xiàn)算力“冗余”的情況,這也是目前市場中所關(guān)心的“內(nèi)存墻”問題。

“內(nèi)存墻”瓶頸:大模型到推理階段,需先從HBM加載模型權(quán)重(GB 級)與KV緩存(GB 級)到GPU緩存,再執(zhí)行計(jì)算——計(jì)算本身僅需微秒級,但數(shù)據(jù)搬運(yùn)則需要毫秒級。

以H100為例,HBM 帶寬3.35TB/s,單Token的計(jì)算時(shí)間是10微秒,但生成這一個(gè)Token,需要加載整個(gè)模型權(quán)重,假如是10GB模型權(quán)重+20GB KV緩存,從HBM要把這些數(shù)據(jù)加載到GPU的搬運(yùn)時(shí)間大約需要9毫秒,計(jì)算閑置時(shí)間將近99%,也就是9毫秒/(9毫秒+0.01毫秒)。【其中:空置率=等待時(shí)間(數(shù)據(jù)搬運(yùn)+內(nèi)核啟動)÷全流程耗時(shí)×100%】

1.3當(dāng)前現(xiàn)狀下,對AI存儲需求的影響

從上文來看,AI服務(wù)器當(dāng)前現(xiàn)狀下,也延伸出了對AI存儲在兩個(gè)方面的需求變化,一方面是推理服務(wù)器對DDR、SSD和HDD的需求將會相對更多;另一方面是“內(nèi)存墻”的瓶頸,需要壓縮傳輸距離、提高傳輸速度,進(jìn)而減少“等待時(shí)間”。

在英偉達(dá)收購Groq之后,市場中也有“SRAM替代HBM” 的聲音(注:GPU芯片內(nèi)部有L1/L2緩存和寄存器,SRAM就是L2緩存,是連接外部HBM的總樞紐。)。

而在CES 2026中,黃仁勛也給出了回應(yīng),“雖然SRAM的速度比HBM快很多,但SRAM的容量還是偏小的(相較于HBM)”。

由此推測,海豚君認(rèn)為即使SRAM開啟量產(chǎn),仍將主要是以“SRAM+HBM”的形式,并不會在短期內(nèi)實(shí)現(xiàn)對HBM的替代。

針對于“內(nèi)存墻”,目前主要有三個(gè)方法來應(yīng)對:

①HBM(提高傳輸速度):拉堆疊層數(shù),從12-Hi往16-Hi升級,在存儲容量提升的同時(shí),傳輸速度有望從B300(8TB/s)提升至16-32TB/s,從而減少數(shù)據(jù)排隊(duì)等待時(shí)間;

②SRAM(壓縮傳輸距離):3D堆疊SRAM通過垂直堆疊多層 SRAM 芯粒,將KV緩存、模型輕量權(quán)重直接放在計(jì)算單元“隨身口袋”(片上或近片存儲)。等到SRAM量產(chǎn)后,將轉(zhuǎn)為“SRAM+HBM”的形式(SRAM負(fù)責(zé)“快”,HBM負(fù)責(zé)“多”),這有望將延遲從100ns大幅縮短至2ns附近。

正如近期英偉達(dá)收購Groq,就是看重其3D SRAM方面的能力,當(dāng)前該領(lǐng)域的核心廠商有臺積電、Groq、三星等。按市場預(yù)期,在2026年下半年英偉達(dá)下一代的Rubin芯片中有望融入Groq技術(shù),從而實(shí)現(xiàn)存力端的提速。

③存算一體:主要嵌入把部分算力嵌入存儲內(nèi)部,從而實(shí)現(xiàn)算力冗余的消除、存力效率和能效比的提升目前尚未在數(shù)據(jù)中心場景實(shí)現(xiàn)落地,按預(yù)期在2027年及之后有望逐漸成為解決“內(nèi)存墻”困擾的一個(gè)途徑。

數(shù)據(jù)中心及AI當(dāng)前階段的重心已經(jīng)從算力逐漸轉(zhuǎn)向存力,而在遇到的“內(nèi)存墻”問題中,HBM迭代升級和SRAM的應(yīng)用,將是短期內(nèi)減少“等待時(shí)間”的有效方式。中長期角度來看,打造“存算一體”的產(chǎn)品未來會成為解決“內(nèi)存墻”問題更好的“答案”。

附:英偉達(dá)收購Groq,主要是對人才的收購,同時(shí)獲得Groq全部核心IP(LPU架構(gòu)、TSP微架構(gòu)、編譯器技術(shù))與硬件資產(chǎn)使用權(quán)。Groq創(chuàng)始人Jonathan Ross(谷歌TPU創(chuàng)始成員)及90% 核心工程團(tuán)隊(duì)加入英偉達(dá),由Simon Edwards接任Groq新CEO。

這一方面能通過融合SRAM技術(shù),從而提升英偉達(dá)在AI推理方面的能力;另一方面也是一次防御性收購,避免Groq相關(guān)技術(shù)落入到了其他競爭對手之中。

二、HBM市場:升級至HBM4,供需緊平衡

AI進(jìn)入推理落地階段,“內(nèi)存墻”困境難解的情況下,HBM依然是緩解“等待時(shí)間”的一個(gè)有效方式。因而,當(dāng)前三大存儲原廠(三星、海力士、美光)將資本開支的重心依然投向于HBM領(lǐng)域。

受益于AI需求的影響,HBM是其中最為直接的增量需求( “從無到有”的需求創(chuàng)造)。由于HBM基本都是搭載在AI芯片上配套出貨,那么HBM的需求量也是與AI芯片的出貨情況直接掛鉤。

從當(dāng)前主流的AI芯片(英偉達(dá)、谷歌、AMD)來看,基本都搭載了HBM3E。在三星的HBM3E通過英偉達(dá)認(rèn)證之后,也已經(jīng)跟了上來。目前三家廠商都開始對HBM4進(jìn)行送樣,當(dāng)HBM4順利量產(chǎn),下一代AI旗艦芯片也將陸續(xù)配備新一代的HBM4產(chǎn)品。

雖然HBM是AI服務(wù)器率先帶動的需求,但HBM的供需狀況卻不是最緊張的,而其中的一部分原因正是存儲廠商近年來高增的資本開支主要都投向于DRAM,尤其是高端產(chǎn)線HBM的擴(kuò)產(chǎn)。

這在核心廠商的表態(tài)中也能看出,①海力士:投入增加以應(yīng)對M15x的HBM4產(chǎn)能擴(kuò)張;②三星:投入將主要用于HBM的1c制程滲透及小幅增加P4L晶圓產(chǎn)能;③美光:專注于1gamma制程滲透和TSV設(shè)備建置。

2.1 HBM供給端:產(chǎn)能->產(chǎn)量

HBM的主要供應(yīng)商來自于海力士、三星和美光這三家公司,HBM市場的供應(yīng)量也將主要取決于三家公司的HBM產(chǎn)能情況。

從上文中能看到,存儲廠商的資本開支主要集中在HBM領(lǐng)域,這也帶來了HBM產(chǎn)能端的快速爬坡。根據(jù)公司情況及行業(yè)面信息,當(dāng)前三家公司合計(jì)HBM的月產(chǎn)能約為39萬片左右。其中海力士和三星的產(chǎn)能相對領(lǐng)先,而美光的產(chǎn)能規(guī)模相對較少

隨著三家核心廠商的資本投入繼續(xù)增加,HBM的月產(chǎn)能至2026年末有望繼續(xù)提升至51萬片左右,年增12萬片左右的產(chǎn)能。

值得注意的是,HBM的產(chǎn)能情況并不等于出貨量表現(xiàn)。參考三星,它的HBM產(chǎn)能雖然相對較高,但由于公司在HBM3E工藝中良率偏低并遲遲未能實(shí)現(xiàn)對英偉達(dá)的供貨,因而三星的HBM實(shí)際出貨量的占比下滑至了3成以下。

當(dāng)前HBM市場的份額中,海力士占據(jù)將近一半的份額,而美光和三星相對接近。而隨著三星的HBM3E產(chǎn)品在四季度獲得了英偉達(dá)的認(rèn)證,三星公司的HBM產(chǎn)能利用率和出貨份額也將有所回升,有望實(shí)現(xiàn)了對美光的反超

對于HBM供應(yīng)端的測算,主要結(jié)合產(chǎn)能和良率來估算。因?yàn)镠BM基本由三大核心廠商(海力士、美光、三星)壟斷,HBM的產(chǎn)能部分也將主要考慮這三家公司的情況。

從上文的三家公司合計(jì)產(chǎn)能來看,2025年四季度的HBM月產(chǎn)能約為39萬片,至2026年四季度HBM的月產(chǎn)能有將達(dá)到51萬片?紤]到產(chǎn)能爬坡因素,海豚君預(yù)估2026年HBM的合計(jì)總產(chǎn)能有望達(dá)到543萬片。

由于單片12寸晶圓(直徑300mm),大約能切割出514顆等效3GB的HBM顆粒(考慮切割及邊角料損失)。

那么543萬片的HBM產(chǎn)能大約能切出27.9億顆的HBM顆粒(等效3GB),在50%綜合良率的情況下,2026年三家核心廠商大致能提供41.9億GB的HBM供應(yīng)量。

2.2 HBM需求端:CoWoS->AI芯片->HBM

因?yàn)镠BM基本都配備在AI芯片之上,而AI芯片又都需要CoWoS封裝。因此在對HBM需求量的估算中,將具體通過“CoWoS->AI芯片->HBM”的方式進(jìn)行。

結(jié)合行業(yè)及市場預(yù)期的情況看,在2026年的CoWoS分配中英偉達(dá)仍占據(jù)著最大的份額(占據(jù)總量的一半以上),谷歌、AMD和亞馬遜也是CoWoS較大的下游客戶。假定下圖中所列的核心客戶占據(jù)了90%的CoWoS需求,那么全球CoWoS在2026年的全年需求量大約在128萬片左右。

在CoWoS量的基礎(chǔ)上,再來測算AI芯片的出貨量。以英偉達(dá)B300為例,由于單個(gè)CoWoS封裝晶圓面積大約能得到14個(gè)左右B300芯片(28個(gè)裸芯),那么B300的35萬片CoWoS產(chǎn)能分配大致對應(yīng)490萬個(gè)B300芯片。

單個(gè)B300芯片配備8個(gè)HBM3E,而每個(gè)HBM3E都為36GB的容量,因而單個(gè)B300需要288GB的HBM3E。那么490萬個(gè)B300芯片,則需要14億GB的HBM。

將谷歌、AMD等各家的AI芯片都以此方式來預(yù)估,可以得到2026年全年的128萬片CoWoS產(chǎn)能大致對應(yīng)了42億GB的HBM需求量

HBM的迭代升級是短期內(nèi)緩解“內(nèi)存墻”的方式之一,綜合上述HBM的供應(yīng)量(41.9億GB)和需求量(42.1億GB)來看,2026年的HBM市場是相對緊張的,這主要是在三大存儲原廠大力擴(kuò)產(chǎn)之下,呈現(xiàn)出了緊平衡的狀態(tài)。

本文主要介紹了各類存儲在AI服務(wù)器中的角度以及HBM的供需情況,而下篇文章中將繼續(xù)圍繞AI對傳統(tǒng)存儲領(lǐng)域的影響展開。

<此處結(jié)束>

- END -

/轉(zhuǎn)載開白

本文為海豚研究原創(chuàng)文章,如需轉(zhuǎn)載請獲得授權(quán)。

/免責(zé)聲明及一般披露提示

本報(bào)告僅作一般綜合數(shù)據(jù)之用,旨在海豚研究及其關(guān)聯(lián)機(jī)構(gòu)之用戶作一般閱覽及數(shù)據(jù)參考,並未考慮接獲本報(bào)告之任何人士之特定投資目標(biāo)、投資產(chǎn)品偏好、風(fēng)險(xiǎn)承受能力、財(cái)務(wù)狀況及特別需求投資者若基於此報(bào)告做出投資前,必須諮詢獨(dú)立專業(yè)顧問的意見。任何因使用或參考本報(bào)告提及內(nèi)容或信息做出投資決策的人士,需自行承擔(dān)風(fēng)險(xiǎn)。海豚研究毋須承擔(dān)因使用本報(bào)告所載數(shù)據(jù)而可能直接或間接引致之任何責(zé)任或損失。本報(bào)告所載信息及數(shù)據(jù)基於已公開的資料,僅作參考用途,海豚研究力求但不保證相關(guān)信息及數(shù)據(jù)的可靠性、準(zhǔn)確性和完整性。

本報(bào)告中所提及之信息或所表達(dá)之觀點(diǎn),在任何司法管轄權(quán)下的地方均不可被作為或被視作證券出售邀約或證券買賣之邀請,也不構(gòu)成對有關(guān)證券或相關(guān)金融工具的建議、詢價(jià)及推薦等。本報(bào)告所載資訊、工具及資料並非用作或擬作分派予在分派、刊發(fā)、提供或使用有關(guān)資訊、工具及資料抵觸適用法例或規(guī)例之司法權(quán)區(qū)或?qū)е潞k嘌芯考埃蚱涓綄俟净蚵?lián)屬公司須遵守該司法權(quán)區(qū)之任何註冊或申領(lǐng)牌照規(guī)定的有關(guān)司法權(quán)區(qū)的公民或居民。

本報(bào)告僅反映相關(guān)創(chuàng)作人員個(gè)人的觀點(diǎn)、見解及分析方法,並不代表海豚研究及/或其關(guān)聯(lián)機(jī)構(gòu)的立場。

本報(bào)告由海豚研究製作,版權(quán)僅為海豚研究所有。任何機(jī)構(gòu)或個(gè)人未經(jīng)海豚研究事先書面同意的情況下,均不得(i)以任何方式製作、拷貝、複製、翻版、轉(zhuǎn)發(fā)等任何形式的複印件或複製品,及/或(ii)直接或間接再次分發(fā)或轉(zhuǎn)交予其他非授權(quán)人士,海豚研究將保留一切相關(guān)權(quán)利。

       原文標(biāo)題 : 存儲猛拉,AI存力超級周期到底有多神?

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號