新闻动态NEWS

AI救活了一家马桶公司也点燃了存储芯片超级周期
日本高端智能马桶企业TOTO,因为AI在过去几个月股价飙升,并不是因为马桶卖得更好了,而是因为TOTO有一个隐藏业务:高纯度陶瓷静电吸盘,这是芯片制造时固定晶圆用的关键耗材,TOTO把精度做到了头发丝的1/80,纯度业界第一。
恰逢存储芯片需求爆发、上游厂商疯狂扩产,这一业务就成了绝对的刚需。这使得高盛等投行纷纷上调TOTO股价评级,原因很简单:静电吸盘的订单已经排到了2027年。现在这块业务占了TOTO超过四成的营业利润。
当一家马桶公司,都成为了AI概念股,可见目前的AI存储赛道有多火爆了,三星(Samsung)、SK海力士(SK Hynix)、美光(Micron)、闪迪(SanDisk),这些存储行业的重要玩家股价疯涨的背后,是全球存储芯片,正在经历四十年来最严重的供需失衡。
这篇文章,我们就来梳理一下这轮存储的“超级周期”,并与三星业内人士和华尔街投资人深度盘点一下:为什么这一次的周期跟以前不一样,存储在AI产业为什么如此重要,谷歌等AI巨头正在如何破除对存储的依赖,以及这样的短缺周期还会持续多久、又如何影响你我呢?
2026年1月底,韩国存储双雄三星电子和SK海力士同时公布了上一年第四季度财报。数字有多夸张呢?两家公司合计营业利润接近40万亿韩元,折合大概278亿美元,相当于每天净赚3亿美元。在这样创下历史的利润下,SK海力士的年终奖,人均达到64万元人民币,刷新公司历史纪录。
把这一切推上巅峰的核心产品,是HBM(高带宽内存)芯片。一块指甲盖大小的HBM,售价400到500美元,这比同等重量的黄金还贵。而全球能做这产品的,就三家:SK海力士占大约6成,剩下的是三星和美光各2成。
但HBM只是冰山一角,真正让整个行业慌了的,是从高端到低端、从DRAM到NAND,全线.6美元涨到了28美元,涨了500%多;更老的DDR4,从3.2美元飙到62美元以上,累计涨幅高达1800%;数据中心用的64GB服务器内存模组,去年半年之内从255美元涨到了700美元,涨了将近175%。
而SK海力士2026年的产能已经全部卖光了,三星2026年一季度直接把NAND闪存的供应价格上调了100%,直接翻倍。
与此同时,出现了一个更有标志性的信号。闪迪(SanDisk)在2026年初的CES上,告诉华尔街:它正在跟客户签一种全新的长期供货协议LTA(long term agreement),而且这次客户要打预付款,毁约不退钱。这在存储行业几十年的历史上从未发生过。
Rob的判断是,如果闪迪都能做到这一点,那另外三大巨头SK海力士、三星和美光,没理由做不到。在这样的情况下,
对于存储行业来说,我们可以用热和冷来做划分,当它离计算的关系越近,就越热;越偏向纯粹的储存属性,就越冷。
所以最“热”的就是DRAM(动态随机存取存储器),是离计算最近的存储,可以理解为电脑和手机的“运行内存”,芯片在工作的时候,数据必须先加载到DRAM里才能被处理。它的特点是速度极快,但断电就丢数据,属于“短期记忆”。
其中,HBM(高带宽内存)是DRAM的一种特殊进化形态。它把多层DRAM芯片,通过硅通孔(TSV)技术垂直堆叠在一起,再用先进封装和GPU贴在同一块基板上,这样做的好处是极大增加了带宽。
这就是为什么所有用于AI训练的顶级芯片,无论是英伟达的GPU还是Google的TPU,都离不开HBM,它是这轮超级周期里最耀眼、最紧缺的产品。
当然DRAM家族内部,其实品类很丰富。包括GDDR(显卡用)、Low-Power DDR(手机和笔记本用的LPDDR)等等,不同的应用场景,对应着不同的产品。不是说一颗DRAM芯片能通吃所有设备,给英伟达GPU用的HBM,和你手机里的LPDDR,虽然都是DRAM,但制造工艺、封装方式、性能指标完全不同。
而在“冷”的这一端,就是NAND。如果DRAM是短期记忆,那NAND Flash就是长期记忆。它断电不丢数据,是我们日常用的固态硬盘(SSD)、手机存储、U盘的核心。你在手机里存的照片、电脑里装的游戏,都躺在NAND上。
NAND在AI时代的角色也在快速升级。以前它就是单纯的“仓库”,负责把数据长期存好,但现在NAND正在从后台的仓库,变成前线的弹药库。
再往“更冷”走,就是传统的机械硬盘HDD,靠磁盘旋转来读写数据,速度慢但便宜,容量大,现在主要用在数据中心的冷存储和归档场景。
随着AI推理对存储层级的需求越来越精细,现在越来越像一个分层仓储系统。最急着用的数据放在HBM,像摆在手边;常用但没那么急的数据放在DRAM,像放在办公桌抽屉;更冷一些、只是备用的数据放在NAND/SSD,像放在办公室储物柜;而真正长期积累、需要多人共享调用的大量资料,则放在后端的大型共享存储里,像公司的总档案馆。
最上游是材料和硅片,比如日本的SUMCO,它是全球最重要的半导体硅片供应商之一。制造环节里,关键设备厂商包括ASML这样的光刻机龙头,以及Tokyo Electron这类覆盖涂胶显影、沉积、刻蚀和清洗等多个环节的设备公司。
中游就是存储芯片的设计和制造。在DRAM领域,三星、SK海力士、美光,这三家公司加在一起就占据了全球95%的市场份额。而在NAND领域,除了这三家之外,还有铠侠(Kioxia)、西部数据、闪迪。
然后是在这轮周期里变得格外关键的环节先进封装。因为HBM不是单纯把DRAM造出来就结束了,它要先把多层DRAM裸片(die)堆叠,再通过2.5D封装与GPU或其他AI加速器集成在一起。也正因为如此,CoWoS这种半导体封装技术一度成为AI芯片供应链最关键的瓶颈之一,直接限制了HBM的实际出货,而CoWoS产能主要由台积电提供。
下游就是各种终端应用了。包括数据中心和云厂商,微软、Google、亚马逊、字节跳动,是现在最大的金主,之后是手机厂(苹果、三星、小米、OPPO)、PC厂(联想、戴尔、惠普)、汽车厂(特斯拉、理想、蔚来),以及游戏主机、工业设备等等。
存储行业还有一个非常大的特点,就是周期性。从历史来看,它总是在“大涨”和“大崩”之间反复横跳。这背后有两层原因,一层是物理学,一层是经济学。
先说物理学。DRAM,就是手机电脑里的“运行内存”,靠存储电荷来保存数据。几十年来,工程师一直在把存储单位做小、做多,来提高密度。巅峰时期,DRAM密度每十年能翻100倍。
这意味着存储芯片的成本下降,不再像以前那样靠技术进步“自动”实现,而是更多取决于产能的增减和供需的博弈。
更要命的是,存储行业的模式是“先建后卖”,跟台积电“先接单后扩产”的逻辑完全不同,存储厂商得自己猜未来需求有多大,提前两三年布产能。猜对了皆大欢喜,猜错了就是灾难。
第二次是2010年,智能手机加云计算时代。iPhone和Android带来爆发式增长,服务器DRAM从个位数GB跳到数十GB。但标准化加速了商品化,供应商很难做出差异,结果这轮周期比预期更短。
第三次是2017到2018年。云厂商升级数据中心,单台服务器塞进更多DRAM,而服务器内存又比消费级更贵更赚钱,三大厂商毛利率冲到历史高位。但高利润刺激扩产,需求一过峰值,2018年末行业重新滑入下行。
第四次是2020到2021年,疫情驱动的意外繁荣。居家办公、云用量暴增,但恐慌性双重下单制造了虚假需求,退潮后库存严重积压,接着就是2022到2023年的痛苦大跌。从那时起产能被大幅削减,但正是这段保守期为现在的短缺埋下伏笔。进入2025年,全行业产能再次严重不足。
所以历史给我们的核心教训是什么?是过去所谓的超级周期,从来没有持续超过两年,都是“高利润疯狂扩产过剩崩盘”,这是过去四十年的铁律。经历了这么多轮循环,投资者和从业者,都有一种根深蒂固的条件反射:涨得越猛,崩得越快。
在讲复杂的供需模型之前,我们先建立一个最简单的逻辑。你每天打开ChatGPT或者Gemini,上传文件、存对话、让AI记住你的偏好,你可能没意识到,每一次交互都在消耗存储资源。不仅是服务器端的计算,更是海量的内存和闪存。
现在大部分AI用户是没有忠诚度的,谁的模型好用、谁便宜就用谁。但想象一下,如果有一天你的AI助手真的“懂你”了,记得你的工作习惯、表达偏好、三个月前讨论过的项目细节,你还会轻易换平台吗?
这种“记忆粘性”,是大模型公司构建护城河的核心武器,而支撑这种粘性的硬件基础设施,就是存储
但如今,推理正在迅速成为主战场,而推理对存储的需求模式,比训练复杂得多。
它需要把模型从存储层加载到内存层:活跃权重主要驻留在HBM,部分状态和缓存则留在DRAM;当KV Cache(键值缓存)在高层内存中装不下时,一部分会被卸载到SSD/NAND上,需要时再取回;而RAG查询依赖的外部知识,通常存放在更后端的共享存储或数据湖中,由检索系统实时调取。
而更大的变量是AI Agent的崛起。摩根士丹利在最新研报中指出,2026年将是AI从实验走向核心基础设施的一年,这些智能体更可靠、更有记忆力、幻觉更少,还能持续学习。这份研报中写到说:“推理正在成为一种内存挑战,而不仅仅是计算挑战”。
但智能体要运转起来,就需要维护多层记忆:短期工作记忆(当前对话)、长期记忆(跨会话的用户历史)、预训练知识库、工具调用记录而每一层都需要不同层级的存储支撑:从HBM里的“热数据”,到DRAM里的“温数据”,再到NAND SSD里的“冷数据”。
摩根士丹利做了一个非常详细的分层测算。他们以一个类似ChatGPT规模的模型为基准,假设大约8亿周活跃用户、峰值每秒30万请求、每次请求2000个输入token,并且假设只算文本,图片和视频不计入。按这个要求详细拆分结果,这样的系统大致对应HBM 226PB、DRAM 4.6EB、NAND/SSD约47EB、数据湖约294EB的需求。
这组数字意味着,如果全球有三个这种规模的模型,比如ChatGPT+Gemini+Claude,仅仅是纯文本推理的需求,就会占到2026年全球HBM供给的17%、DRAM的35%、NAND的92%。而这还没有把图片、视频等多模态需求算进去。
更重要的是,这套测算对上下文长度非常敏感。摩根士丹利的敏感性分析显示,如果把输入从每次2000 token,提高到5000 token,在其他条件不变时,每个模型的DRAM需求会再增加约2EB,Rack SSD/NAND再增加约3EB。也就是说,随着更长上下文和更长思考链成为常态,这对存储的压力会迅速放大。
SemiAnalysis管这叫“内存帕金森定律”:HBM容量每提升一次,开发者就会立刻构建更大的模型来把它填满。以前用来压缩模型的各种技巧,一有新空间就被放松,直到再次撞墙,这就意味着:
而这个周期的另外一个决定性因素,就是产能上的供应扩张,问题是,为什么扩产会这么挑战呢?
理解这轮超级周期,还有一个核心密码在于搞懂一个看上去很矛盾的现象:HBM的大规模扩产,不但没缓解DRAM的短缺,反而让它更严重了。
SemiAnalysis的追踪数据显示,2023年底,三大存储厂商分配给HBM的晶圆产能大约12.3万片/月。到2025年底涨到了33.1万片/月,两年扩了将近3倍。预计到2027年底还会进一步到66.8万片/月,四年翻5倍。
这意味着,厂商每多生产1GB的HBM,市场就失去了生产3-4GB普通DRAM的机会。
这也就带来了“HBM-DRAM困境”,在业内被称为“产能排挤效应”。因为HBM的利润更高,且被AI巨头预定,厂商会优先把有限的晶圆塞进HBM产线。这导致普通手机和电脑用的传统DRAM产能,被严重压缩,从而引发了价格的报复性飙涨。
来自J.P.Morgan研报中的供需模型也得出了类似结论:DRAM的供给增长,在未来两年将被压制在20%以下,跟不上需求增长。
于是,又出现了一个令人匪夷所思的现象:虽然普通DRAM工艺比HBM简单,但由于产能受限、价格飞涨,它的利润率到2025年四季度,竟然已经追平甚至超过了HBM。因为HBM大多是长期合同锁了价,而普通DRAM的现货价格,能迅速反映供需紧张。这就给厂商出了个难题:到底是继续猛扩HBM,还是把一部分产能,留给同样暴利的普通DRAM?
SemiAnalysis的追踪显示,2026年全行业几乎所有新增晶圆产能,就集中在三座工厂:三星的P4、SK海力士的M15X、美光的A3。而且M15X和A3主要是给HBM用的,对普通DRAM贡献很有限。
真正有意义的新产能呢?SK海力士的龙仁(Yongin)工厂,最早2027年2月才能上线;美光的爱达荷(Idaho)工厂瞄准2027年年中。也就是说,未来一年多,供给端基本没有增量。
这就是一个典型的“木桶效应”,就算存储厂商有钱有决心扩产,上游设备的供货瓶颈,也会大幅拖慢产能上线的速度。第三个瓶颈:先进节点迁移自身的摩擦。
洁净室等生产资源不够、设备商不扩产、先进节点迁移自身的摩擦这三个瓶颈叠在一起,就是为什么即使所有人都知道存储芯片在疯涨,供给端依然束手无策。
至于行业利润率,野村的口径是2026财年,通用DRAM原厂利润率,有望回升至上一轮周期的峰值70%。而J.P.Morgan更激进,它的说法是到2027年,营业利润率可能超过80%,甚至要高于上一轮的峰值。
而这条产业链上的输家,就是硬件厂商了。摩根士丹利测算过,存储芯片价格每涨10%,硬件OEM的毛利率就要下降45到150个基点。
手机市场最先遭殃,小米、OPPO出货预测下调超过20%,vivo下调近15%。TrendForce直接把2026年全球智能手机生产总数预测,砍到了同比下降10%。魅族宣布取消魅族22Air的上市计划,因为成本扛不住了。Nothing的CEO裴宇在社交媒体上感叹:小公司不得不寻找其他出路。
PC市场同样惨烈,联想部分机型上调了500到1500元,戴尔和惠普也已明确预告提价,涨幅主要由存储成本转嫁而来。戴尔COO克拉克直言“从没见过成本上涨得如此之快”,惠普CEO甚至在考虑“减少产品中的内存使用量”。
汽车行业也没能幸免,理想汽车供应链副总裁公开警告,2026年车规存储满足率可能不到50%。蔚来李斌说“今年最大的成本压力是内存”。雷军在直播中坦言“光车用内存一项,成本就要增加几千块”。
而在需求的另一端,云厂商们(微软、Google、亚马逊AWS)表现出惊人的价格不敏感。
对于云厂商们来说,即使手机和PC市场归零,存储厂商都觉得无所谓,因为AI数据中心的前景太诱人了。
大家通常觉得垄断等于高溢价,但在存储这种周期波动极大的行业里,100%的市场份额意味着100%的需求风险,客户一砍单就非常的被动,所以存储厂商反而希望保持三家竞争的平衡态。
同时,需求端完全看不到放缓的迹象。接下来,AI推理和agent的爆发,以及之后的机器人和物理AI需求,也将进一步让存储的吞吐量和容量需求出现指数级跳跃。
但更值得关注的,是一个更大的问题:这个行业会不会从此告别周期?从华尔街视角,Rob给了一个很有深度的思考角度:
以下这幅图的横轴是以过去五个周期、每轮周期的谷底为零点的时间线,竖轴是市场交易的涨幅。可以看到,每轮周期都会经历四个阶段:悲观、怀疑、乐观、狂热,然后再回到悲观。当前这轮红线走势,我们已经到了“乐观”的这个区间,并且涨幅远大于以往的任何一个周期。
这就对应了刚刚Rob说的,这种思考方式的转变,万一AI真的打破了这种周期呢?
就像没有人会说苹果卖手机,在过去20年是个周期性行业。如果存储也能走到这一步,这将是整个半导体投资框架的一次范式转换。
不过,存储行业的需求也是会有不确定性的,需求侧的变量不只来自宏观层面,技术本身也可能改写供需关系。
比如说,3月底,谷歌发布了一个新算法TurboQuant,号称是一个高效AI内存压缩算法。发布之后是直接轰动了硅谷科技圈,更是引发存储板块的全线暴跌。但很快,业内有声音反驳说:这次暴跌是一场乌龙。首先这篇论文发表于一年前,且本身存在一些学术上的争议。并且这个算法目前只在Gemma、Mistral等小模型上验证过,70B以上模型、MoE架构、百万级token上下文,这些AI内存需求真正爆炸的场景,都没有。还有技术人士出来说,在技术上,TurboQuant压缩的只是推理时GPU显存里的KV Cache,是AI内存需求三大来源之一,但训练环节完全不受影响。
反正,这篇论文和算法是被各种炮轰。但这就有意思了:这一篇存在争议的旧论文成果,就能引发资本市场如此剧烈的崩盘,是不是本身就能说明一些问题。是不是这意味着:市场对存储板块的信心,已经高到了极度脆弱的程度。要知道,在这波暴跌之前,闪迪2026年以来已经暴涨了200%,美光也涨了超过80%。
有空头机构直接指出,闪迪以920亿美元的市值、对应2026年仅60亿美元的预期净利润,估值很难站住脚。美光同样面临质疑:尽管创下了历史最佳业绩,但2026财年200亿美元的资本开支同比增长68%,这就是在豪赌内存需求会持续增长。
说到底,TurboQuant论文只是一根导火索,真正的火药桶是过去两年积累的极端估值,
所以,当前对“超级周期”的乐观预判,都建立在一个前提上:AI的需求是真实的、可持续的。如果有一天AI出现泡沫破裂,存储行业很难独善其身。这个达摩克利斯之剑会一直悬在那里,直到行业真正证明自己成为了一个“苹果式”的稳定增长业务。
SemiAnalysis将这轮周期定义为“四十年一遇的短缺”。但更有价值的方向或许是:存储芯片行业正站在一个分岔路口,它要么像过去四十年一样,在价格峰值后滑入又一轮低谷;要么,在AI的结构性需求驱动下,真正打破周期宿命,成为一个持续增长的产业。
至少在2026年,答案似乎正在倾向于后者。三大存储厂商的产能全部售罄,上游设备商的订单排到了2027年,客户开始交预付款签有法律约束力的长期合同,甚至连一家做马桶的日本公司,都因此改变了命运。但历史从不缺少对“这次不一样”的嘲讽。唯一确定的是:无论这次能不能打破周期,它已经不可逆转地重塑了全球科技产业的权力版图。在这场对存储芯片的饥饿游戏中,谁掌握了供给,谁就掌握了AI时代的话语权。
本文系作者硅谷101授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿。创业或融资寻求报道,点击这里。


2026-04-12 13:16:36
浏览次数:
次
返回列表
友情链接: