热门资讯> 正文
2026-03-27 22:32
Micron Technology Inc.等内存股(纳斯达克股票代码:MU)和Sandisk Corp.(纳斯达克股票代码:SDNK)是2026年共识的人工智能交易--对为每个主要超大规模商提供动力的推理构建的最直接的硬件押注。
在过去的六个交易日里,这种贸易一直在以需求模型没有预见到的方式瓦解。
直接触发因素是Alphabet Inc.(纳斯达克股票代码:GOOGL)于3月24日星期二宣布推出TurboQuant,这是一款震惊整个内存行业的人工智能内存压缩算法。
美光科技的股票在过去六个交易日中每一个交易日都在下跌,跌幅超过20%。这是该股自2025年4月关税冲击抛售以来最糟糕的多个交易日表现。
同行Sandisk和Western Digital Corp.(纳斯达克股票代码:WDC)也紧随其后,SNDK仅在周四就下跌了11%。周四在首尔,三星电子下跌近5%,SK Hynix下跌约6%,拖累KOSPI指数走低。日本闪存专家Kioxia在同一交易日下跌约6%。
现在的争论是,这是买入的下跌还是刚刚永久破灭的看涨论点。
该算法称为TurboQuant。它由谷歌研究科学家Amir Zandieh和副总裁兼谷歌研究员Vahab Mirrokni开发,将key-Value缓存(高速内存存储,允许人工智能模型在不重新处理的情况下检索过去的计算)压缩到每个值仅3位,低于标准的16位。
根据谷歌的基准测试,这将KV缓存内存需求至少减少六倍,而模型准确性没有可测量的损失,并使Nvidia Corp.(纳斯达克股票代码:NVDA)的H100图形处理器的性能提升高达8倍。
预计将于2026年第二季度发布开源版本。
简而言之:每个人工智能推理工作负载都针对随着上下文长度而增长的KV缓存运行。
TurboQuant压缩该缓存,这意味着相同数量的高带宽内存可以为更多的同时用户提供服务、处理更长的上下文或运行比以前更大的模型。
然而,这里也存在明显的技术界限。
TurboQuant没有触及人工智能模型培训的内存要求,这仍然是谷歌、微软公司(NYSE:MSFT)和Amazon.com Inc等超大规模运营商高带宽内存采购的最大单一驱动力。(纳斯达克股票代码:AMZN)。
截至目前,该算法也是实验室结果。它将在四月底的2026年国际学习代表会议(ICLR)上正式提交。它尚未在任何主要人工智能基础设施堆栈中以生产规模部署。
Wells Fargo TMT分析师Andrew Rocha直接承认了需求的威胁。
罗查周三在一份投资者报告中表示:“TurboQuant直接攻击了这里的成本曲线。”他补充说,每个人工智能工作负载的内存规格较低,很快引发了行业实际需要多少总容量的问题。
然而,罗查没有得出悲观的结论--他指出,需求破坏情景需要广泛采用,而这种情况尚未发生。
这不会改变该行业的长期需求状况,”他说。
摩根士丹利反驳了销售主题。
该银行的半导体分析师Shawn Kim称股票反应过度,并认为TurboQuant最终可能会在长期内使存储器制造商受益--较低的推理成本会降低运行人工智能服务的每代币成本,这从历史上看推动了更广泛的采用,而不是需求压缩。
该银行援引杰文斯·帕特里奇的话说:在资源有限的市场中,效率提高往往会增加而不是减少总消费。
历史先例是鲜明的。JPEG压缩不会减少相机存储空间。视频编解码器并没有减少硬盘驱动器需求--而是启用了4K流媒体,从而提高了硬盘驱动器需求。
DeepSeek R1在2025年1月的效率突破引发了Nvidia和内存股的类似抛售;两个季度内,超大规模公司的人工智能资本支出承诺创下历史新高。
事实证明,抛售是一个切入点,而不是周期的转折点。
美国银行证券(BofA Securities)半导体分析师维韦克?阿里亚(Vivek Arya)对需求破坏论提出了最直接的反驳。
在周四发布的一份报告中,他表示,自2024-25年以来,类似的压缩技术一直在流通-仅Nvidia在过去12个月内就发布了四种不同的KV缓存效率方法-而不会改变大规模的硬件采购。
他说,更有说服力的证据在于谷歌自己的支出计划。尽管发布了TurboQuant,谷歌仍将其CY 26资本支出预期上调至约1,800亿美元,同比增长100%,远高于之前共识的约1,270亿美元。
艾莉亚在笔记中表示:“记忆效率提高了6倍,”可能会导致“准确性和/或上下文长度提高6倍,而不是记忆力减少6倍。”
他维持了美光500美元的目标价格,并指出该股目前处于历史5- 10倍预期市净率区间的低端。
Quilter Cheviot的技术研究主管Ben Barringer也提供了同样的框架。巴林格表示,TurboQuant加大了存储类股的压力,但该技术是渐进性的,而不是革命性的,不会改变该行业的长期需求前景。
Ortus Advisors的技术分析师安德鲁·杰克逊(Andrew Jackson)在一份研究报告中指出,鉴于目前人工智能内存市场的极端供应限制,TurboQuant的开发可能对需求影响不大”。
更广泛采用TurboQuant的近期受益者是超大规模企业(更便宜的推理成本可以提高基础设施投资的回报率)以及可以以更小的硬件预算运行更大模型的人工智能初创公司。
值得注意的是,在这种情况下,英伟达并不是失败者;当内存效率提高时,图形处理器的必要性并没有减少,而是每1美元的推理输出的成本效益更高,可能会加速在以前受到成本限制的市场中的采用。
对于Micron和Sandisk来说,计算要复杂得多。
这两只股票在进入2026年定价时都假设人工智能内存需求将随着模型大小和上下文长度线性扩展--即使完全采用之路还需要数年时间,TurboQuant的假设现在变得复杂。
市场似乎并不是在短期采用情况下定价,而是存在可靠的降低内存强度的软件途径。
这是一个不同且更难驳回的假设。
美光最近的抛售已经引人注目。
它是否代表结构性重新定价还是对尚未投入生产的实验室结果的过度反应,是下一个盈利周期和ICLR 2026年将开始回答的问题。
图片来源:Shutterstock