🚀🔥 连“旧 GPU”都在涨价:AI 算力真正的稀缺点在哪里?
如果你最近在关注 AI 基础设施市场,会发现一个非常反直觉的现象。
按理说,随着新一代 GPU 不断推出,旧型号应该逐渐贬值。
但现实恰恰相反。
像 $NVDA H100 这样的 GPU,即使已经不是最新架构,价格却再次上涨。
这说明一件事情:
AI 算力的需求,仍然远远超过供应。
很多人过去的理解是:
只有最新、最强的 GPU 才有价值。
但现在市场给出的答案完全不同。
只要是 能训练 AI 的 GPU,都在被重新定价。
原因其实非常简单。
AI 集群扩张的速度,已经超过了整个产业链的产能扩张速度。
当企业在搭建大型模型训练集群时,核心问题已经不是:
“是不是最先进的 GPU?”
而是:
“现在能不能买到 GPU?”
在这种环境下,算力市场开始出现一个新的现实:
旧 GPU 重新变成“稀缺资产”。
这也意味着,需求的溢出效应会沿着整个 AI 硬件链条向外扩散。
不仅仅是 $NVDA。
其他算力供应商也会受益。
例如:
$AMD 的 GPU
$AVGO 提供的 AI ASIC
$GOOGL 的 TPU 系统
当市场对算力的需求持续爆发时,企业的选择会变得非常现实:
能用的算力,都要。
于是整个行业出现一个连锁反应:
GPU 需求爆发
→ ASIC / TPU 需求同步上升
→ 数据中心资本开支扩大
这其实就是 AI 时代一个非常关键的产业逻辑:
算力不是单一产品,而是一整个生态系统。
GPU
ASIC
TPU
光互连
网络设备
存储系统
当 AI 进入规模化部署阶段,这些环节都会被同时拉动。
如果站在更长周期来看,这个现象其实透露出一个更深层的问题:
AI 现在最缺的,到底是什么?
是更强的 GPU。
还是更多 可用算力本身。
如果需求持续保持这种强度,你觉得未来三年算力市场会发生什么变化?
GPU 会继续主导,还是 ASIC / TPU 会越来越多?
精彩评论