等也是一种策略 如何等在哪里等
03-07 19:10

🚀🔥 连“旧 GPU”都在涨价:AI 算力真正的稀缺点在哪里?

如果你最近在关注 AI 基础设施市场,会发现一个非常反直觉的现象。

按理说,随着新一代 GPU 不断推出,旧型号应该逐渐贬值。

但现实恰恰相反。

像 $NVDA H100 这样的 GPU,即使已经不是最新架构,价格却再次上涨。

这说明一件事情:

AI 算力的需求,仍然远远超过供应。

很多人过去的理解是:

只有最新、最强的 GPU 才有价值。

但现在市场给出的答案完全不同。

只要是 能训练 AI 的 GPU,都在被重新定价。

原因其实非常简单。

AI 集群扩张的速度,已经超过了整个产业链的产能扩张速度。

当企业在搭建大型模型训练集群时,核心问题已经不是:

“是不是最先进的 GPU?”

而是:

“现在能不能买到 GPU?”

在这种环境下,算力市场开始出现一个新的现实:

旧 GPU 重新变成“稀缺资产”。

这也意味着,需求的溢出效应会沿着整个 AI 硬件链条向外扩散。

不仅仅是 $NVDA。

其他算力供应商也会受益。

例如:

$AMD 的 GPU

$AVGO 提供的 AI ASIC

$GOOGL 的 TPU 系统

当市场对算力的需求持续爆发时,企业的选择会变得非常现实:

能用的算力,都要。

于是整个行业出现一个连锁反应:

GPU 需求爆发

→ ASIC / TPU 需求同步上升

→ 数据中心资本开支扩大

这其实就是 AI 时代一个非常关键的产业逻辑:

算力不是单一产品,而是一整个生态系统。

GPU

ASIC

TPU

光互连

网络设备

存储系统

当 AI 进入规模化部署阶段,这些环节都会被同时拉动。

如果站在更长周期来看,这个现象其实透露出一个更深层的问题:

AI 现在最缺的,到底是什么?

是更强的 GPU。

还是更多 可用算力本身。

如果需求持续保持这种强度,你觉得未来三年算力市场会发生什么变化?

GPU 会继续主导,还是 ASIC / TPU 会越来越多?

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法