Deep Analysis

AMD vs Intel 数据中心争夺:CPU 在 AI 推理时代的话语权重构

从EPYC首超Xeon到ACE x86扩展,AI推理负载如何重新定义服务器CPU的战略价值

AMD vs Intel 数据中心争夺:CPU 在 AI 推理时代的话语权重构

导语:AMD数据中心营收首超Intel的历史性时刻

2026年5月5日,AMD公布Q1财报:数据中心业务营收58亿美元,同比增长57%。几乎同一时期,Intel数据中心与AI事业部(DCAI)营收为51亿美元。这是AMD在数据中心领域首次单季营收超越Intel——一个在2017年之前还持有服务器CPU市场99%份额的巨头。

这一数字超越的意义远不止财务层面。它标志着x86服务器市场从“Intel主导、AMD追赶”的单极格局,正式进入双强拉锯的新阶段。更重要的是,推动这一转折的核心力量并非传统的企业级通用计算需求,而是AI推理与智能体(Agentic AI)工作负载的爆发式增长——这正在从根本上重新定义服务器CPU的战略角色。

数据解读:58亿 vs 51亿背后的结构性变化

表面看,AMD数据中心营收超越Intel仅7亿美元,但拆解数据结构后,差异更为深刻:

  • 增长引擎不同:AMD数据中心营收57%的同比增长,由EPYC CPU和Instinct GPU双轮驱动。其中服务器CPU营收增长超过50%,EPYC驱动的云实例数量已超1600个,同比增长近50%。而Intel DCAI的8%同比增长(Q1 2025数据)主要来自Xeon的温和复苏,Gaudi加速器贡献有限。
  • 利润结构分化:AMD数据中心业务运营利润率达28%,而非GAAP毛利率达55%,产品组合向高利润率数据中心倾斜明显。Intel同期GAAP毛利率仅36.9%,且公司整体仍处于运营亏损状态。
  • 客户集中度转移:AMD与Meta达成6吉瓦级别的多代产品合作(含基于MI450的定制GPU),Meta同时成为第六代EPYC的lead customer。OpenAI等AI巨头也在扩大AMD部署。这种“联合设计+多代绑定”模式远超传统OEM采购,构建了极高的客户粘性。

从市场份额看,AMD服务器CPU收入份额已从2024年Q2的33.8%提升至2025年Q2的41%。按PassMark数据,2025年Q1 AMD服务器CPU市场份额首次达到50%的持平线。虽然Intel在出货量上仍以约72%领先,但高端市场的定价权正在快速转移。

AI推理时代的CPU价值重估:CPU/GPU配比从1:8到1:1

AI训练时代的服务器架构以GPU为中心,CPU主要承担数据预处理和I/O调度,CPU与GPU的典型配比为1:8(1颗CPU服务8颗GPU)。但AI推理——尤其是智能体AI——的工作负载特征根本性地改变了这一配比逻辑。

AMD CEO Lisa Su将服务器CPU市场分为三个“切片”:第一层是传统通用计算(系统记录与交互),增长稳定但缓慢;第二层是GenAI训练与推理中的“头节点”角色——CPU管理GPU集群的编排、数据准备和通信;第三层,也是增长最迅猛的,是完全为智能体AI工作负载服务的CPU——AI代理的持续决策、逻辑推理、多源数据交互,天然适合CPU架构而非GPU。

这导致两个结构性变化:

  1. 配比重构:智能体AI场景下,CPU承担的工作量超过系统60%的核心任务,CPU/GPU配比从1:8快速向1:1甚至更高迁移。AMD EPYC 9575F搭配8颗GPU的系统,在相同条件下比Intel Xeon 8592+方案实现了20%更高的系统级性能。
  2. TAM翻倍:AMD将2030年服务器CPU TAM从600亿上调至1200亿美元,CAGR从18%上调至35%。这一修正几乎完全由第三层“智能体AI CPU”驱动——一个两年前几乎不存在的市场切片。

从技术层面看,CPU在推理场景的优势在于:低延迟内存访问(直接访问系统RAM,无需GPU间数据搬运)、灵活的分支预测与逻辑控制(适合决策树、图算法等非结构化推理),以及无需额外GPU部署的轻量化推理能力——这对实时推荐系统、小模型微调(PEFT/LoRA)、图分析等场景尤为关键。

ACE x86扩展深度解析:16倍AI性能的技术原理与生态意义

2026年4月,AMD与Intel联合发布AI Compute Extensions(ACE)白皮书,这是x86生态系统 Advisory Group成立以来最重要的技术成果。ACE的核心目标:将GPU级的矩阵加速能力直接带入CPU,使轻量AI推理负载无需卸载至独立GPU。

技术原理:ACE引入基于外积运算(Outer Product)的矩阵加速机制,与AVX10无缝集成。传统AVX10的SIMD操作是一维的——512位向量被当作64个8位元素的行处理,每次仅产生64次乘法。ACE的突破在于引入8个2D Tile Register(16×16维度,32位精度),将两个16×4的输入矩阵(8位精度)通过外积算法在16×16网格的每个交叉点计算内积,单周期完成1024次乘法,相比AVX10提升16倍计算密度。

操作每次乘法数消耗输入向量数
AVX10 INT8642
ACE INT810242
AVX10 BF16322
ACE BF165122

ACE原生支持INT8、OCP FP8、OCP MXFP8、OCP MXINT8、BF16等AI数据格式——这是首次在商业处理器架构中支持OCP MX标准的内联块缩放(inline block scaling)。Tile Register采用累加模式而非覆写模式,每个周期将新值累加至现有结果,天然适配矩阵乘法的累加语义。

生态意义:

  • 统一标准避免碎片化:ACE由AMD和Intel联合开发,经x86 EAG(成员含Broadcom、Dell、Google、Meta、Microsoft、Oracle,顾问包括Linus Torvalds和Tim Sweeney)审议,确保跨厂商一致性——这正是AVX-512当年因碎片化而推广受阻的教训。
  • 全场景覆盖:从笔记本到数据中心,同一套ACE代码无需修改即可跨平台运行,大幅降低开发与维护成本。
  • 软件适配已启动:PyTorch、TensorFlow、NumPy、SciPy的集成正在推进,低精度GEMM和LLM原语的优化内核已在开发中。

不过,目前尚无ACE兼容CPU上市。Robert Hormuth表示新标准将从2026年开始出现在芯片中,AMD下一代EPYC Venice(Zen 6,2nm)和Intel后续产品有望成为首批搭载ACE的处理器。

AMD EPYC vs Intel Xeon:份额转移的驱动因素与可持续性

AMD从2017年EPYC Naples发布时的2%服务器CPU份额,到2025年Q1达到50%持平线,增长轨迹惊人。当前竞争格局的核心对比:

维度AMD EPYC 9005(Turin)Intel Xeon 6(Granite Rapids)
最大核心数192核(Zen 5c)/384线程128核(Redwood Cove P-core)
L3缓存512MB504MB
制程TSMC 4nm/3nm(Chiplet)Intel 3(单片+Chiplet)
内存支持6TB DDR5/插槽,160条PCIe Gen5+CXL 2.08.8GHz MRDIMM支持
AI加速依赖高核心密度+未来ACEAMX FP16/BF16原生加速
旗舰定价EPYC 9965: $14,813高端型号价格更高

AMD份额增长的核心驱动因素:

  1. 核心密度优势:192核的EPYC 9965在整数性能上可替代7台2019年Xeon Platinum 8280服务器,1000台旧服务器可被127台EPYC 9965替换,功耗降低69%,5年节省电费340万美元。这对面临电力约束的数据中心至关重要。
  2. Chiplet架构的规模效应:模块化设计不仅提升良率降低成本,还允许AMD快速迭代。即将推出的Zen 6 Venice(2nm)每瓦性能相较竞品x86方案大幅提升,相比主流ARM AI方案,每插槽吞吐量超过两倍。
  3. 软件许可成本优势:在按核心计费的软件许可模式下,更高核心密度的EPYC在同性能下所需芯片数更少,直接降低许可支出。

但Intel并非没有反击筹码:AMX加速在无需GPU的场景下可执行BF16/FP16推理,降低整体系统成本;MRDIMM的高带宽对内存敏感型负载有优势;下一代Xeon产品路线图也在加速推进。此外,Intel仍是企业级市场出货量主导者,在安全特性(TDX/SGX)、管理工具链和ISV认证方面的积累仍构成护城河。

ARM威胁:x86联盟能否守住服务器阵地

x86阵营的联合不只是面对彼此的竞争,更是在应对ARM的持续侵蚀。当前ARM服务器CPU已占整体服务器营收的13.2%,NVIDIA Grace Blackwell组合正在驱动ARM服务器CPU出货量50%的增长。Arm公司甚至发布了自研的Arm AGI CPU,宣称单机架性能可达最新x86系统的两倍以上。

在华硕的Copilot AI PC中,ARM架构CPU占比已从2025年底的约20%提升至30%,且预计全年占比持续攀升。CPU供应紧张(交期从1-2周延长至8-12周)叠加AMD/Intel 10-15%的涨价,正在为ARM打开机会窗口。

ACE正是x86阵营的应对之策:通过统一的矩阵加速标准,使CPU在轻量AI推理场景下免于依赖GPU,对抗ARM在能效比上的传统优势。但ARM的攻势不仅来自性能——Ampere、高通等厂商在边缘计算和5G场景的低功耗方案,以及AWS Graviton、Google Axion等自研ARM实例的规模化部署,正在从云厂商内部瓦解x86的阵地。

关键变量在于软件生态迁移成本。x86的数十年代码资产和ISV认证体系仍是核心壁垒,但容器化和云原生架构正在降低迁移门槛。ACE如果能快速获得PyTorch/TensorFlow的一等公民支持,将有效延缓ARM在AI推理场景的渗透速度。

企业采购框架更新:AI推理场景下的CPU选型逻辑

AI推理时代的服务器CPU选型,需要超越传统的SPEC基准和核心数对比,建立新的评估框架:

  1. 工作负载分层:首先区分推理场景类型——GPU密集型推理(大模型前向传播)需要强I/O编排能力的CPU;CPU原生推理(小模型、LoRA微调、实时推荐、图分析)需要高核心密度和大内存带宽;智能体编排层需要高单线程性能和低延迟内存访问。
  2. TCO重新计算:总拥有成本需纳入电力约束(PUE与碳排)、空间效率(每机架推理吞吐)、软件许可(按核心计费的影响)、以及CPU/GPU配比变化带来的系统成本结构调整。一台EPYC 9965服务器替代7台旧Xeon的场景下,5年TCO优势可能超过40%。
  3. 路线图对齐:ACE扩展的落地时间线直接影响CPU在AI推理场景的长期价值。如果计划在2027-2028年部署ACE兼容工作负载,当前EPYC Turin/Xeon Granite Rapids的采购决策需预留架构兼容空间。
  4. 多供应商策略:AMD份额持续上升创造的竞争压力对买方有利。企业应避免单一供应商锁定,建立AMD/Intel双源评估流程,利用竞争议价空间。
  5. ARM纳入评估:对于新构建的云原生AI推理服务,ARM实例(如AWS Graviton4/Google Axion)应纳入选型对比,特别是在边缘推理和成本敏感场景。
🎯

战略重要性

AMD数据中心营收首超Intel并非单一季度的财务事件,而是AI推理时代服务器CPU战略价值重构的标志性拐点。当CPU/GPU配比从1:8向1:1迁移,CPU从GPU的附属品升级为AI系统的编排核心,服务器CPU的TAM从600亿翻倍至1200亿美元。这意味着:服务器CPU不再是停滞的存量市场,而是一个由智能体AI驱动的增量市场。对于企业IT决策者,重新评估CPU在AI推理架构中的角色,将直接影响未来3-5年的基础设施投资回报。ACE x86扩展的发布则意味着,x86阵营正在从被动防守转向主动进攻——用统一标准对抗ARM的能效优势和NVIDIA的生态锁定。

PRO

决策选择

对于企业基础设施决策者:

  • 立即行动:重新评估现有服务器CPU采购框架,将AI推理负载的CPU需求(核心密度、内存带宽、I/O编排能力)纳入核心评估指标,而非仅看SPEC基准。
  • 短期(6-12个月):在CPU/GPU配比设计上,针对推理场景将配比从传统的1:8向1:4甚至1:2调整,优先评估EPYC Turin在高核心密度场景的TCO优势。
  • 中期(12-24个月):建立AMD/Intel双源采购流程,利用份额竞争获取议价空间。同时将ARM实例纳入新建云原生推理服务的选型对比。
  • 长期(24个月+):关注ACE扩展在EPYC Venice和下一代Xeon中的落地进度,评估ACE兼容工作负载的迁移计划。对于智能体AI密集型场景,预留ACE架构的升级路径。
🔮 PRO

预测验证

趋势预测:

  • 2026年下半年:AMD服务器CPU营收份额突破45%,EPYC Venice(Zen 6/2nm)发布将巩固核心密度与能效领先优势。Intel通过AMX增强的Xeon在特定推理场景有所反弹,但整体份额持续承压。
  • 2027年:首批ACE兼容CPU上市,x86在轻量AI推理场景的能效竞争力显著提升,但ARM服务器营收份额仍将突破15%。CPU/GPU 1:1配比成为AI推理集群的主流配置。
  • 2028年:AMD与Intel在服务器CPU收入份额上趋于持平(各约45%),ARM占据约10-12%。服务器CPU市场规模按35% CAGR增长至约80-90亿美元(季度)。ACE在PyTorch/TensorFlow中的一等公民支持基本完成,x86在AI推理场景的软件生态护城河初步建立。
  • 2030年:服务器CPU TAM达1200亿美元预测的关键验证点。若智能体AI按预期爆发,CPU将确立为AI基础设施中与GPU同等重要的战略组件,而非附属品。

💬 评论 (0)