Reports
AI-generated structured vendor updates
NVIDIA与Intel达成50亿美元战略合作:AI芯片供应链新格局
NVIDIA与Intel于2025年9月18日宣布50亿美元战略合作:NVIDIA投资50亿美元获得Intel约4%股权,Intel为NVIDIA定制x86 CPU(用于AI基础设施)和集成RTX GPU芯粒的x86 SoC(用于PC产品)。双方通过NVLink实现架构互连,形成「AI计算+NVIDIA CUDA+x86生态」的联合体。此举重塑AI芯片供应链格局,对AMD和独立芯片设计厂商产生深远影响。
思科发布AI模型溯源宪法,定义权重级衍生关系标准
思科发布《模型溯源宪法》,为AI模型供应链安全提供规范性定义。该标准严格基于模型权重的可验证衍生历史,明确区分了直接衍生、蒸馏等五种关联关系与独立复现等八种非关联模式,旨在解决当前行业在模型溯源定义上的不一致问题。
思科开源AI模型血缘工具包,瞄准AI供应链安全治理层
思科发布开源工具Model Provenance Kit,通过分析模型元数据、分词器及权重信号,生成唯一指纹并比对,以技术手段验证AI模型的血缘关系与完整性,旨在应对模型供应链中存在的篡改、伪造及合规风险。
AMD与Liquid AI探讨从芯片到系统的高效AI架构
AMD CTO与Liquid AI CEO探讨AI架构演进,强调效率是AI从云端向边缘和终端设备扩展的关键。双方认为,通过从芯片到系统的协同设计,可实现低功耗、高响应性的AI推理,支持持续运行的智能体与多模型协同。
Intel Q1验证CPU/GPU 1:4配比趋势:Xeon 6如何改变AI推理基础设施的TCO计算
Intel Q1验证CPU:GPU配比从1:8回升至1:4,Xeon 6成为NVIDIA DGX-Rubin CPU,AMX指令集使CPU可在推理场景替代入门级GPU,单节点TCO降低40-60%
Arm发布Performix性能分析工具包,瞄准AI Agent时代优化
Arm发布免费性能分析工具包Performix,旨在为AI Agent开发提供跨Arm平台的统一性能洞察与优化。该工具通过Arm MCP Server集成至主流AI开发环境,将硬件运行时数据转化为可操作的优化建议,并已获得微软、MongoDB等生态伙伴支持。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
NVIDIA Rubin GPU生产目标下调,Blackwell 2026年占比升至71%
NVIDIA Rubin GPU生产目标从200万颗下调至150万颗,主要因HBM4内存验证延迟。TrendForce数据显示2026年Blackwell占比从61%升至71%,巩固主导地位。美光退出Rubin HBM4供应链,SK海力士将占70%份额。分析师维持增持评级,认为影响有限。Rubin延迟可能延长SK海力士HBM3E的市场主导期。
Intel Q1财报暴涨24%:数据中心营收51亿美元超预期,CPU重返AI核心
Intel 2026年Q1财报超预期,营收136亿美元同比增7%,Non-GAAP每股收益0.29美元超预期1350%。数据中心与AI部门营收51亿美元同比大涨22%,运营利润率31%。
Intel Q1财报暴涨24%:数据中心营收51亿美元超预期,CPU重返AI核心
Intel 2026年Q1财报超预期,营收136亿美元同比增7%,Non-GAAP每股收益0.29美元超预期1350%。数据中心与AI部门营收51亿美元同比大涨22%,运营利润率31%。Xeon服务器CPU需求强劲,AI PC占比超60%,与Google等签订多年供货协议。财报发布后股价大涨25%。
Google全域算力池化:资源利用率从35%提升至85%
Google发布全域算力池化技术,资源利用率从35%提升至85%+,成本降低40%+,支持跨区域、跨云厂商资源整合。
思科通过新防火墙架构应对AI基础设施的规模化安全挑战
思科发布Secure Firewall 6100系列,通过软件数据平面重构和硬件优化,旨在为AI数据中心、云和电信环境提供高性能、高能效的安全防护。该方案强调在加密流量激增和东西向流量增长背景下,实现安全与性能的平衡,并与Hybrid Mesh Firewall架构集成,提供跨混合环境的一致性策略。
英特尔联合诺基亚与戴尔推出面向远边缘的UPF专用设备
英特尔、诺基亚与戴尔在MWC 2026上预展了一款基于英特尔至强6 SoC的远边缘UPF设备。该方案旨在为电信运营商在空间与功耗受限的远边缘环境提供高性能、低功耗的5G核心网用户面处理能力,并集成了AI功能。
英特尔与谷歌深化合作,共同定义异构AI基础设施核心
英特尔与谷歌宣布多年期合作,旨在共同推进下一代AI与云基础设施。核心是强化CPU和定制IPU在异构AI系统中的中心地位,通过多代Xeon处理器优化性能与能效,并扩展基于ASIC的IPU联合开发,以提升超大规模AI环境下的效率与可预测性。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
英特尔与SambaNova联合发布面向Agentic AI的异构推理架构
英特尔与SambaNova宣布合作,为Agentic AI生产负载设计异构计算蓝图。该方案结合GPU、SambaNova RDU和英特尔至强6处理器,旨在解决性能、效率与软件兼容性挑战,预计2026年下半年推出。
Arm与马来西亚莫纳什大学合作,推进AI时代半导体人才培养
Arm宣布与马来西亚莫纳什大学工程学院合作,捐赠集成电路设计开发板并派遣高管担任客座讲师,旨在为AI时代培养具备Arm架构和现代系统设计实践经验的半导体人才。
ARM联合Google优化Gemma 4设备端AI性能
ARM通过Armv9架构的SME2技术加速Google Gemma 4模型在移动设备的运行,实现5.5倍预填充加速和1.6倍解码提速。该合作使开发者无需修改代码即可获得性能优化,推动设备端AI成为移动应用默认架构,降低云端依赖。
AMD发布突破性MLPerf 6.0推理结果,展示多节点扩展与多模态能力
AMD在MLPerf Inference 6.0基准测试中,凭借Instinct MI355X GPU在Llama 2 70B和GPT-OSS-120B模型上首次突破每秒100万令牌的推理吞吐量。其提交强调了多节点扩展效率、对新型文本到视频模型(Wan-2.2-t2v)的快速启用,以及广泛的合作伙伴生态系统复现结果。
ARM推出自研AGI CPU芯片,扩展AI基础设施布局
ARM首次推出自研AGI CPU芯片,突破传统IP授权模式,提供从定制化芯片到完整平台解决方案的全栈能力。此举将重构AI基础设施供应链控制权,推动企业从硬件层优化AI工作负载部署效率。
英特尔在MLPerf推理测试中展示Xeon 6与Arc Pro GPU的AI性能
英特尔在MLPerf Inference v6.0基准测试中展示了其Xeon 6 CPU和Arc Pro B系列GPU的性能,特别是在处理大型语言模型(LLM)时的表现。测试结果显示,配备四块Arc Pro B70 GPU的系统能够处理120B参数的模型,并在多GPU设置中提供高达1.8倍的推理性能提升。
高通推出集成NPU的可穿戴平台,强化边缘AI与“个人AI生态”
高通发布Snapdragon Wear Elite平台,首次为可穿戴设备集成专用NPU,支持本地运行高达20亿参数模型。该平台旨在将AI计算从智能手机中心转向以个人AI代理为中心的架构,利用可穿戴设备提供持续上下文,实现跨设备智能协同。
AWS与TGS达成战略合作,推动能源行业AI与HPC转型
TGS选择AWS作为首选云提供商,利用AWS的高性能计算和生成式AI构建能源勘探解决方案。合作包括现代化TGS Imaging AnyWare平台,部署多模态地下基础模型,并利用AWS Nitro系统确保工作负载安全。
Arm首次推出自研AGI CPU,进军数据中心硅产品市场
Arm宣布其计算平台首次扩展至生产级硅产品,推出自研的Arm AGI CPU,专为AI数据中心和Agentic AI工作负载设计。该CPU旨在提供远超x86平台的每机架性能与能效,并已获得Meta、OpenAI等关键客户及广泛OEM/ODM生态支持。
英特尔与CrowdStrike深化AI PC安全集成,优化端侧威胁检测
英特尔与CrowdStrike扩展合作,将Falcon平台深度集成至英特尔AI PC硬件层,利用CPU、GPU、NPU的端侧AI加速能力及芯片级遥测技术。该方案旨在实现实时威胁检测与入侵防御,同时避免性能损耗,针对生成式AI数据泄露风险提供企业级防护。
英伟达联合能源机构展示AI算力工厂参与电网调峰
英伟达与能源研究机构EPRI、英国国家电网及初创公司Emerald AI合作,成功演示了基于Blackwell GPU集群的AI算力工厂如何根据电网实时需求,动态调节自身功耗以充当电网的“减震器”,同时保障高优先级AI工作负载的性能。
Arm推出数据中心芯片产品进军服务器硬件市场
Arm发布首款面向数据中心的硅产品Arm AGI CPU,采用1OU双节点参考服务器设计。这标志着Arm从IP授权商向完整服务器硬件参考设计提供商的战略转型,旨在为智能体AI云提供芯片基础。
Arm推出自研AGI CPU进军AI数据中心硬件市场
Arm首次推出自研硅产品AGI CPU,专为AI数据中心设计,采用Neoverse V3架构,单机架性能宣称超x86平台2倍以上。该产品标志着Arm从IP授权商向硅产品供应商的战略转型,已获得Meta、OpenAI等关键客户支持。
Meta与Arm合作开发面向AI数据中心的新CPU
Meta宣布与Arm合作,共同开发针对AI工作负载优化的数据中心CPU。首款产品Arm AGI CPU旨在提升机架性能密度,支持大规模AI部署,并将通过Arm向生态开放,其板卡设计将通过OCP开源。
Meta与Arm合作开发AI专用数据中心CPU
Meta宣布与Arm共同开发专为AI工作负载设计的数据中心CPU Arm AGI,该CPU旨在显著提升性能密度和能效。Meta将作为主导合作伙伴,计划通过开放计算项目公开硬件设计,并与自研MTIA芯片协同工作。