Reports
AI-generated structured vendor updates
Meta与Broadcom达成多年2nm AI芯片合作,初始部署超1GW
Meta与Broadcom宣布多年多代战略合作,共同开发MTIA(Meta Training and Inference Accelerator)芯片,合作延续至2029年。首批部署超过1GW,后续扩展至数吉瓦级别。这是业界首个2nm工艺AI计算加速器,基于Broadcom XPU平台深度定制。Meta已规划MTIA 300/400/450/500四个迭代版本,主要用于推荐算法、内容排序和大规模AI推理。Broadcom CEO陈福阳将退出Meta董事会以规避利益关联,转为战略顾问。
Arm首次推出自研AGI CPU,进军数据中心硅产品市场
Arm宣布其计算平台首次扩展至生产级硅产品,推出自研的Arm AGI CPU,专为AI数据中心和Agentic AI工作负载设计。该CPU旨在提供远超x86平台的每机架性能与能效,并已获得Meta、OpenAI等关键客户及广泛OEM/ODM生态支持。
Meta与Arm合作开发面向AI数据中心的新CPU
Meta宣布与Arm合作,共同开发针对AI工作负载优化的数据中心CPU。首款产品Arm AGI CPU旨在提升机架性能密度,支持大规模AI部署,并将通过Arm向生态开放,其板卡设计将通过OCP开源。
Meta与Arm合作开发AI专用数据中心CPU
Meta宣布与Arm共同开发专为AI工作负载设计的数据中心CPU Arm AGI,该CPU旨在显著提升性能密度和能效。Meta将作为主导合作伙伴,计划通过开放计算项目公开硬件设计,并与自研MTIA芯片协同工作。
Meta加速自研AI芯片路线图,专注推理优化
Meta计划两年内推出四代自研AI芯片MTIA系列,采用‘推理优先’设计策略,专注于生成式AI推理任务优化。芯片基于PyTorch和开放计算标准构建,支持数据中心无缝部署。这一快速迭代策略旨在提升计算效率和成本控制。
Meta与AMD达成6GW AI基础设施战略合作
Meta宣布与AMD达成多年期战略合作,将部署高达6GW的AMD Instinct GPU计算能力。双方将基于AMD GPU、EPYC CPU和共同开发的Helios机架架构进行多代深度整合,支持Meta的多元化计算战略。首批部署计划于2026年下半年开始。