• 3
  • 6
  • 3

谷歌发布KV缓存压缩技术,存储需求预期遭冲击,美股存储板块集体下挫

华尔街见闻03-25 22:27

Google Research近日推出全新的KV缓存压缩方法TurboQuant。据称,该技术可在不损失准确性的前提下,将大语言模型的缓存内存占用至少减少6倍,并实现最高8倍的加速,旨在解决AI推理与向量搜索中的内存瓶颈问题。

受此消息影响,美股存储板块集体走低。截至收盘,闪迪跌6.5%,美光科技跌超4%,西部数据跌超4%,希捷科技跌超5%。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

举报

评论6

  • LarryChow
    ·03-26 22:16
    又是谷歌,嗯,我要开始关注它了。
    回复
    举报
  • 七风哥哥
    ·03-26 00:09
    总结一句话,对储存厂商来说还是利好!!!没影响!没必要恐慌! KV缓存压缩直接把GPU显存(HBM)需求砍掉大半。像NVIDIA的KVTC能压20倍,vLLM的FP8/NVFP4砍一半,MIT那个Attention Matching甚至50倍无损。结果呢? • 原来跑128k上下文得几百GB显存,现在轻松翻倍批次、拉长对话,单卡就能撑大模型推理。 • 整体内存用量降了,GPU集群扩容压力小,成本直线掉——2026年这已经是标配,谁不压谁吃亏。 但对美光、闪迪这种存储厂商?反而是利好! 为什么?压缩让KV缓存“活得长”,但长上下文+多轮对话还是会爆——GPU放不下,就得offload到DRAM或NVMe SSD。NVIDIA现在推多层存储(GPU → 系统内存 → 高速闪存),KV缓存直接变成“新存储需求”。 • 闪迪(SanDisk)Q2 FY2026营收爆了61%,数据中心SSD涨76%,他们说2027年KV缓存额外要75-100EB(exabytes),明年翻倍——这块儿现在是他们新增长点。 • 美光也火,HBM卖断货,DRAM库存紧,AI推理把存储需求推到天花板。分析师说2026年内存芯片短缺持续,价格飙70%。 一句话:显存省了,系统级存储(DRAM+NAND)反而更吃香——厂商们笑醒了。 你要是想投股,闪迪这波AI存储故事比纯HBM的还猛哦。
    回复
    举报
  • 七风哥哥
    ·03-26 00:03
    对内存需求影响超级明显——KV缓存压缩直接把GPU显存(HBM)需求砍掉大半。像NVIDIA的KVTC能压20倍,vLLM的FP8/NVFP4砍一半,MIT那个Attention Matching甚至50倍无损。结果呢? • 原来跑128k上下文得几百GB显存,现在轻松翻倍批次、拉长对话,单卡就能撑大模型推理。 • 整体内存用量降了,GPU集群扩容压力小,成本直线掉——2026年这已经是标配,谁不压谁吃亏。 但对美光、闪迪这种存储厂商?反而是利好! 为什么?压缩让KV缓存“活得长”,但长上下文+多轮对话还是会爆——GPU放不下,就得offload到DRAM或NVMe SSD。NVIDIA现在推多层存储(GPU → 系统内存 → 高速闪存),KV缓存直接变成“新存储需求”。 • 闪迪(SanDisk)Q2 FY2026营收爆了61%,数据中心SSD涨76%,他们说2027年KV缓存额外要75-100EB(exabytes),明年翻倍——这块儿现在是他们新增长点。 • 美光也火,HBM卖断货,DRAM库存紧,AI推理把存储需求推到天花板。分析师说2026年内存芯片短缺持续,价格飙70%。 一句话:显存省了,系统级存储(DRAM+NAND)反而更吃香——厂商们笑醒了。 你要是想投股,闪迪这波AI存储故事比纯HBM的还猛哦。
    回复
    举报
    收起
    • 朴丞相
      短期会放缓内存需求,长期产能上来了就没超额利润赚了。现在炒的预期不是内存最终用量,是这两年的供不应求,超高利润率
      03-26 20:32
      回复
      举报
  • 结果谷歌也在跌,所以到底利好了谁🙄
    回复
    举报
    收起
  • 揭谛投资
    ·03-25 23:19
    “而对算力与内存硬件的长期影响则判断为“中性偏正面”。”
    回复
    举报
  • 咸鱼突刺
    ·03-25 22:43
    好好好
    回复
    举报
 
 
 
 

热议股票

 
 
 
 
 

7x24