AMD:AI算力竞赛中的“内存王者”
AMD在人工智能(AI)领域可谓是风头正劲。他们家的 MI300X 芯片受到了科技巨头们的青睐,包括Meta、微软、甲骨文和DigitalOcean等公司都开始大量采用。这意味着在AI计算需求爆发式增长的当下,AMD正在成为英伟达(NVIDIA)之外,一个非常重要的“第二供货源”。
MI300X 芯片之所以这么受欢迎,主要有几个硬核优势:
-
超大内存: 它配备了 192GB 的 HBM3e 高带宽内存,数据吞吐量高达每秒 5.3TB。这对于处理大型语言模型(LLM)来说至关重要,因为它能让整个模型的数据一次性装入芯片,大幅提升运行效率。
-
成本优势: 采用“小芯片”设计,在成本上比传统的一体化芯片更有优势。
-
软件生态日益成熟: AMD 的 ROCm 软件平台正在不断完善,Meta 甚至已经把 Llama 3.1 模型部署在 MI300X 集群上进行生产环境的运行,这表明 ROCm 已经足够成熟,能满足最严苛的实时推理需求。
深度解读:为什么AMD值得关注?
我们的核心观点是:AMD正在凭借其在内存密集型AI加速器领域的战略地位,获得Meta和OpenAI等公司的认可,这将为其带来多年的高利润收入增长,而市场目前还没有完全意识到这一点。
简单来说,AMD的目标是:
-
凭借 MI300 系列芯片在 Meta、微软、甲骨文和 OpenAI 等公司获得的成功,在数据中心加速器市场占据稳定的两位数份额。
-
到 2027年,将数据中心业务的收入提升三倍以上。
-
将整体毛利率提升到 55%以上。
-
推动自由现金流实现复合增长,从而带动公司估值重估。
Meta 正在人工智能领域掀起一场“人才军备竞赛”,不惜重金吸引顶尖研究人员,这预示着未来会有更大规模的 Llama 模型和多模态AI出现,这些都对芯片的内存容量有极高的要求,而这正是 AMD MI300X 的强项。
根据Omdia的供应链调查,Meta 已经为它的 4050亿参数 Llama 3.1 模型订购了大约 17万块 AMD Instinct MI300X 加速卡。要知道,英伟达的 H100 芯片最大只有 80GB 内存,而 MI300X 拥有 192GB HBM3e 内存和 5.3TB/s 带宽,足以在单个设备中容纳整个 Llama 3.1 模型的分片,大大降低了延迟。
此外,OpenAI 在2025年6月也公开承诺将部署 AMD 即将推出的 MI350 加速器,并参与未来 MI450 芯片的共同设计。这无疑为 AMD 带来了又一个重量级客户,进一步扩大了其软件遥测数据和批量生产的优势。
市场需求和技术优势
AI 工作负载的规模几乎与上下文长度和参数数量呈线性关系,这意味着 AI 模型越大,对内存密集型 GPU 的需求就越大。微软、甲骨文、三星和 DigitalOcean 等公司也已经开始推出自己的 MI300X 实例,这进一步扩大了 AMD 在超大规模数据中心领域的覆盖范围,并使其收入来源多样化。
目前,AI加速器的供应仍然受到结构性限制,HBM(高带宽内存)产能紧张,英伟达的订单甚至排到了 2026 年。在这种情况下,云服务提供商非常需要一个可靠的“第二供货源”。AMD 的“小芯片”策略使其能够以更低的边际成本整合更多的内存通道,这在成本上为超大规模数据中心带来了巨大的优势。
过去,软件生态一直是英伟达 CUDA 的强大护城河,但现在 AMD 的 ROCm 已经取得了长足进步。ROCm 6.2 版本引入了原生 vLLM 和 Bits-and-Bytes 支持、FP8 内核以及新的分析工具,大大缩小了与 CUDA 在训练和推理效率上的差距。
财务表现:数据说话
从财务角度来看,AMD 在 2025年第一季度的表现非常强劲:
-
总营收达到74.4亿美元,同比增长了 36%。
-
毛利率为50%,比去年同期提升了 3个百分点。
-
其中,数据中心业务贡献了 37亿美元,同比增长57%,是增长的主要引擎。
-
客户和游戏业务营收 29亿美元,同比增长28%。
-
嵌入式业务营收 8亿美元,同比略有下降 3%。
-
按照非GAAP(非通用会计准则)计算,毛利率更是达到了 54%。
华尔街分析师普遍预计,AMD 在 2026财年的营收将达到 370亿至380亿美元,非GAAP每股收益约为 5.9美元。更乐观的预测认为,随着 MI350 在微软和 Meta 的加速部署,2027年营收可能突破 450亿美元,每股收益达到 8-9美元。管理层在 2025年5月的电话会议中表示,尽管受到出口管制的影响(约 7亿美元的收入逆风),第二季度营收仍有望实现 27%的同比增长,并重申了对全年数据中心销售实现“强劲两位数增长”的信心。
市场机遇:未来可期
行业分析师预计,到 2028年,数据中心AI加速器市场规模将超过 5000亿美元,比 2023 年增长 10倍。即使英伟达目前占据了大约 80%的市场份额,剩余的市场对于其他供应商来说仍然是前所未有的巨大机遇。
Omdia 估计,到 2024年,AMD MI300X 在 Meta、微软、甲骨文和 TensorWave 的出货量已经超过了 32.7万块。仅 Meta 一家就占了其中大约一半,而且其公开披露的路线图显示,年度更新周期将使加速器数量与 Llama 模型参数同步增长。
AMD 芯片的模块化特性也为其打开了新的垂直市场。MI300A 版本融合了 Zen 5 CPU 核心和 CDNA 3 GPU,已被美国能源部的 El Capitan 百亿亿次超级计算机选中,这进一步巩固了 AMD 在高性能计算领域的信誉。最近,AMD 还收购了 ZT Systems,旨在提供全机架的 AI 基础设施,从而获取更多的系统价值。
最关键的是,超大规模数据中心运营商都希望实现供应冗余,避免单一供应商的风险。通过在核心推理框架上实现与 CUDA 的功能对等,AMD 正在成为任何多供应商堆栈中不可或缺的“第二供货商”。
风险提示:投资有风险,入市需谨慎
当然,投资任何股票都伴随着风险,AMD 也不例外:
-
英伟达的竞争: 英伟达并非原地踏步。他们的下一代 Hopper 继任者 “Blackwell”系列芯片即将上市,承诺每个芯片都将配备 192GB HBM3e 内存和专有的 NVLink 5 互连技术,这可能会在年底前缩小 AMD 的内存优势。如果英伟达能够实现大规模出货,MI300X 的定价空间可能会迅速收窄。
-
CUDA生态的惯性: CUDA 仍然是许多 AI 研究人员的默认选择。虽然 ROCm 已经取得了显著进步,但在一些特殊情况下,如不规则稀疏内核或定制的 Transformer 变体,性能差异仍然存在。
-
供应链风险: HBM3e 依赖于台积电和三星少数几个封装节点,任何生产上的小问题都可能限制 AMD 满足 Meta 和微软等公司积极预测的能力。此外,出口管制风险也值得关注,例如之前因为新的美国许可要求导致 8亿美元的库存减记,这表明地缘政治风险可能会在单个季度内影响利润和营运资金。
-
其他竞争对手: 除了英伟达,英特尔的 Gaudi 3 芯片也能提供 H100 级别的性能,而且八卡套件价格大约在 12.5万美元,这比英伟达便宜,也给 AMD 的平均售价带来压力。如果 Gaudi 的软件成熟速度超出预期,它可能会分割 AMD 正在争夺的市场份额。
结语:把握买卖节奏,开启互动
正如我们前面在估值部分提到的,AMD 的估值仍未能完全体现其在 AI 领域的增长潜力。但最终,投资案例的成败取决于公司的执行力。如果 AMD 能保持 ROCm 的快速迭代,确保 HBM3e 的供应,并再争取到一两个大型超大规模数据中心客户,那么目前的营收预期可能会显得过于保守。管理层设定的“数百亿美元”数据中心 AI 收入目标,意味着公司总营收的年复合增长率将达到两位数,这足以支撑当前的估值,并在出口管制阴影消散后留有进一步上涨的空间。
总的来说,AMD 的股价相对于其在 AI 领域的机会,我认为仍然被低估了。虽然英伟达很可能在绝对市场份额上保持领先,但 AMD 凭借其独特的内存优势、成本结构以及日益增长的软件接受度,正在成为一个不可或缺的“第二供货商”,尤其是在一个对单一供应商风险越来越敏感的市场中。
对于有耐心的投资者来说,虽然短期波动在所难免,但随着超大规模数据中心资本支出的大幅增加,以及与 Meta 交易收入的全面贡献,AMD 在未来十二个月内有望带来不错的收益。
对于 AMD 这家公司,或者对于 AI 芯片市场的未来,你们有什么看法呢?欢迎在评论区留言讨论,或者私信我,我们可以更深入地探讨如何更好地把握股票的买卖节奏,一起在AI浪潮中寻找投资机会!
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
- Inmoretion·07-10amd这一轮上涨的幅度其实真的不小了,看样子还能往上走点赞举报

