4月下旬,云成本优化平台Cast AI发布的一份报告揭示了算力基础设施领域的显著矛盾:企业因“错失恐惧症(FOMO)”而大量采购的AI GPU中,有高达95%的容量处于闲置状态。 与此同时,供应链的另一端却呈现出截然不同的景象。PC和服务器制造商发现,他们订购的英特尔和AMD服务器CPU,交货期已经从两周延长至六个月甚至更长。在供需失衡的背景下,英特尔和AMD在一年内连续三次上调CPU价格,累计涨幅接近30%。 一边是昂贵的GPU利用率不足,另一边是基础的CPU供应紧张。这种反差表明,过去两年以GPU为核心的算力叙事正在发生转变。 一场由Agentic AI引发的算力结构调整已经开始。在最近一个月内,Arm打破35年惯例亲自下场销售CPU,英伟达将Vera CPU作为独立产品推向市场,AMD与英特尔股价双双创下阶段性新高,前苹果首席CPU架构师也带着红杉资本的投资重返通用CPU赛道。 种种迹象表明,CPU在数据中心的角色正在被重新定义。它正在夺回定价权,并开启一个属于自己的“超级周期”。 01 Agentic AI的算力瓶颈 要理解当前的CPU短缺,需要关注AI工作负载底层逻辑的变化。 在传统的大语言模型训练与推理阶段,数据中心的算力分配呈现出“重GPU、轻CPU”的特征。由于AI模型需要大规模并行矩阵乘法,GPU凭借其高度并行的架构优势承担了核心计算任务,而CPU则主要负责压缩内存数据并将其路由至GPU。TrendForce的分析指出,在这一阶段,人工智能数据中心内CPU与GPU的配置比例通常在1:4至1:8之间。 然而,随着Agentic AI的兴起,这种算力分配模式面临挑战。与静态的LLM不同,智能体人工智能需要与环境进行动态交互,包括规划任务、调用外部工具、做出决策并代表用户执行操作。管理这些复杂流程的协调层——例如调度子任务、在不同子智能体之间传递数据,以及评估请