当市场还在讨论AI是否“估值过高”时,高盛交易台给出了一个更具操作性的判断:
👉 AI主线没有结束,反而进入“结构性补涨阶段”
核心逻辑非常清晰:
* AI数据中心整体已大幅上涨(+300%级别)
* 但细分基础设施出现明显分化
* 液冷、光通信、推理算力仍明显滞涨
换句话说:
👉 第一波赚的是“算力龙头”(如GPU)
👉 第二波赚的是“基础设施补涨”
⸻
一、AI基建进入“精细化投资阶段”
市场正在发生一个关键转变:
从:
✔ 关注“谁投钱(CAPEX)”
转向:
✔ 关注“钱流向谁(设备供应链)”
⸻
三大核心补涨方向
1、推理算力(Inference Compute)
* 到2030年占比将达 40%+
* CAGR约 35%
👉 AI从“训练”走向“应用”的核心基础设施
⸻
2、液冷系统(Cooling)
* 高性能GPU已逼近散热极限
* 数据中心用水需求将 3倍增长
👉 从“可选项”变成“刚需”
⸻
3、光通信(Optical Networking)
* 800G / 1.6T 光模块供给严重短缺
* 最高缺口达 60%
👉 AI算力之间的“神经网络”
⸻
二、重点受益美股公司
⸻
1、推理算力核心标的
核心定位
AI推理芯片 + GPU竞争者
⸻
优势分析
1、推理市场最大受益者之一
相比训练(NVIDIA主导),推理市场更开放
2、性价比优势(每美元算力)
更符合企业降本需求
3、生态逐步完善
ROCm生态持续追赶CUDA
⸻
投资逻辑
👉 AI从训练走向应用,AMD是最大边际受益者之一
⸻
2、光通信核心标的
核心定位
光模块、激光器核心供应商
⸻
优势分析
1、深度绑定AI光通信链条
参与800G/1.6T光模块供应
2、供给紧张直接受益
行业明确存在供需缺口
⸻
投资逻辑
👉 光模块短缺 = 价格上涨 + 订单爆发
⸻
Lumentum Holdings(LITE)
核心定位
光通信与激光技术龙头
⸻
优势分析
1、数据中心光互联核心供应商
2、技术壁垒高(高速光芯片)
⸻
投资逻辑
👉 AI算力扩张 → 数据传输需求爆发
⸻
3、液冷与散热系统
核心定位
数据中心基础设施龙头(散热+电源)
⸻
优势分析
1、液冷系统核心供应商
2、绑定大型云厂商(Hyperscaler)
3、订单爆发已在兑现
⸻
投资逻辑
👉 AI算力密度提升 → 液冷成为刚需
⸻
核心定位
热管理与冷却系统
⸻
优势分析
1、转型AI数据中心散热
2、小市值 → 高弹性
⸻
投资逻辑
👉 “小而美”的液冷弹性标的
⸻
4、AI基础设施“卖水人”
核心定位
AI服务器与机架解决方案
⸻
优势分析
1、整合GPU+液冷+服务器
2、交付能力极强(速度优势)
⸻
投资逻辑
👉 AI基建爆发 → 服务器需求直接放量
⸻
三、为什么这些方向会补涨?
原因非常简单:
1、第一阶段涨的是“核心算力”
* NVIDIA
* 云厂商
⸻
2、第二阶段才轮到“基础设施”
因为:
* 算力部署 → 才需要散热
* 算力扩张 → 才需要光通信
* AI应用落地 → 才需要推理
⸻
👉 这是一个天然的滞后链条
⸻
四、投资策略
⸻
稳健配置
* Vertiv(液冷龙头)
* Lumentum(光通信龙头)
⸻
进攻组合
* AMD(推理算力)
* Coherent(光模块)
* Modine(小市值弹性)
⸻
高弹性核心
* Super Micro(AI服务器)
⸻
五、核心结论
AI行情没有结束,而是进入:
👉 “从核心到边缘”的扩散阶段
下一阶段最重要的机会不在:
❌ 再追GPU龙头
而在:
✅ 寻找被低估的基础设施环节
⸻
一句话总结
👉 第一波赚“算力”,第二波赚“算力背后的基础设施”。
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。


