过去两年,全球半导体产业的聚光灯始终打在HBM身上。这种通过硅通孔技术垂直堆叠的DRAM,伴随英伟达GPU的大规模出货,完成了从一个小众产品到供不应求的“硬通货”的蜕变。然而,就在2026年的春天,一个看似陈旧的技术名词——SRAM(静态随机存取存储器),正在以惊人的速度重回舞台中央。 要理解这场复权的底层逻辑,必须先厘清存储层级的基本分工。在当代计算架构中,存储系统呈现为一座金字塔:塔尖是集成在CPU、GPU计算核心附近的片上SRAM,具备纳秒级访问时延与高度确定性的带宽特性,带宽极高但容量极小、成本极高;向下依次是HBM、DRAM和SSD,每一级的容量递增,但时延和带宽的不确定性也随之增加。在过去以训练为主的时代,大容量吞吐比纳秒级响应更重要,因此HBM占据了主导。但当AI应用从实验室走向普罗大众,当用户体验的标尺从“模型有多大”转向“回答有多快”,这座金字塔的受力结构正在发生深刻变化。 3月17日,加州圣何塞SAP中心的舞台上,身着标志性黑色皮夹克的黄仁勋用两个半小时的演讲,正式为这一趋势写下了注脚。在这场备受瞩目的GTC 2026主题演讲中,英伟达正式发布了集成Groq LPU架构的推理芯片,并披露了令人瞩目的技术细节:最新Groq 3 LPU单芯片集成500MB片上SRAM,存储带宽高达150TB/s,而作为对比,主流GPU的片外HBM4带宽约为22TB/s。 更令人震撼的是其机架级方案:Groq 3 LPX机架搭载256个LPU处理器,提供128GB片上SRAM和高达40PB/s的推理加速带宽,并通过每个机架640TB/s的专用扩展接口将这些芯片连接在一起。黄仁勋在现场宣布,这款芯片将由三星电子代工,目前已进入生产阶段,预计今年下半年开始出货。更令业界震动的是,OpenAI已确定成为该芯片的首批客户,并承诺投入300亿美元采购相关推理算力。这不仅是英伟达在AI芯