Reports
AI-generated structured vendor updates
英伟达通过NemoClaw与OpenClaw合作,推动企业级自主AI代理安全部署
英伟达通过NemoClaw参考实现,整合OpenShell安全运行时与Nemotron开源模型,为企业提供安全部署“长时运行自主AI代理”的蓝图。此举旨在应对自主AI代理带来的千倍推理需求增长与安全治理挑战,将AI基础设施控制点向本地、安全、可审计的架构迁移。
AMD与Liquid AI探讨从芯片到系统的高效AI架构
AMD CTO与Liquid AI CEO探讨AI架构演进,强调效率是AI从云端向边缘和终端设备扩展的关键。双方认为,通过从芯片到系统的协同设计,可实现低功耗、高响应性的AI推理,支持持续运行的智能体与多模型协同。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
AMD发布IDC白皮书,强调AI PC是企业部署Agentic AI的关键基础设施
AMD发布IDC白皮书,指出超过80%的企业正在规划、试点或部署AI PC,以支持Agentic AI的规模化应用。报告强调,高性能NPU和端侧AI处理对于实现实时、安全的工作流至关重要,标志着企业AI基础设施正从云端向端侧扩展。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
诺基亚深化AI-RAN合作,推动网络向AI原生演进
诺基亚宣布与英伟达等伙伴深化AI-RAN合作,旨在将AI深度集成至无线接入网,并推动网络向自主化、AI原生6G演进。此举凸显了网络基础设施作为AI时代关键支撑层的战略地位。
英特尔与SambaNova联合发布面向Agentic AI的异构推理架构
英特尔与SambaNova宣布合作,为Agentic AI生产负载设计异构计算蓝图。该方案结合GPU、SambaNova RDU和英特尔至强6处理器,旨在解决性能、效率与软件兼容性挑战,预计2026年下半年推出。
Arm与马来西亚莫纳什大学合作,推进AI时代半导体人才培养
Arm宣布与马来西亚莫纳什大学工程学院合作,捐赠集成电路设计开发板并派遣高管担任客座讲师,旨在为AI时代培养具备Arm架构和现代系统设计实践经验的半导体人才。
思科推出AI就绪宽带解决方案应对边缘计算挑战
思科发布Agile Services Networking和Unified Edge平台,旨在帮助宽带服务提供商应对AI带来的带宽激增和低延迟需求。该方案通过在网络边缘部署计算和推理能力,减少核心网络负载,并支持智能流量优先级管理。
英特尔在MLPerf推理测试中展示Xeon 6与Arc Pro GPU的AI性能
英特尔在MLPerf Inference v6.0基准测试中展示了其Xeon 6 CPU和Arc Pro B系列GPU的性能,特别是在处理大型语言模型(LLM)时的表现。测试结果显示,配备四块Arc Pro B70 GPU的系统能够处理120B参数的模型,并在多GPU设置中提供高达1.8倍的推理性能提升。
思科通过统一可观测性平台实现预防性IT运维
思科IT部门通过整合Splunk、ThousandEyes和AppDynamics等工具,构建了统一的可观测性平台,将运维重点从MTTR转向事故预防。该平台利用AI技术实现数据关联分析,在过去18个月减少了25%的重大事故并提升45%的故障解决速度。
思科推出统一AI网络架构应对训练与推理流量冲突
思科提出统一AI网络架构解决方案,通过N9000系列交换机实现训练和推理流量的智能调度,解决传统双架构模式下的资源浪费问题。该方案包含硅级低延迟支持、实时遥测和自动化策略调整能力,瞄准新兴云服务商的平台化转型需求。
Meta与Arm合作开发面向AI数据中心的新CPU
Meta宣布与Arm合作,共同开发针对AI工作负载优化的数据中心CPU。首款产品Arm AGI CPU旨在提升机架性能密度,支持大规模AI部署,并将通过Arm向生态开放,其板卡设计将通过OCP开源。
ARM推出AGI CPU芯片,进军AI基础设施市场
ARM于2026年3月推出首款自研AGI CPU生产级芯片,标志着从IP授权模式向完整硅解决方案提供商的战略转型。该芯片专为下一代AI基础设施设计,可能重塑数据中心处理器生态格局。
NVIDIA将GPU动态资源分配驱动捐给Kubernetes社区
NVIDIA将其GPU动态资源分配(DRA)驱动捐献给CNCF,使其成为Kubernetes上游项目。此举旨在将GPU编排的核心控制点从厂商专有层上移至开源社区,并协同多家云厂商推动标准化。
英伟达与电信运营商共建AI网格,重构分布式推理基础设施
英伟达与AT&T、康卡斯特等全球电信运营商合作,将现有分布式网络站点(如中心局、基站)升级为“AI网格”,旨在将AI推理能力部署到网络边缘,以降低延迟和成本。此举标志着电信网络从数据管道向分布式AI计算平台的战略转变。
Cisco与NVIDIA扩展AI工厂架构覆盖边缘和安全
Cisco宣布扩展与NVIDIA的Secure AI Factory,支持从数据中心到边缘站点的AI部署,新增安全功能如防火墙策略在DPUs和AI防御集成,提供灵活架构选择加速生产部署。
思科发布G300芯片与系统,定位AI Agent时代数据中心网络基础
思科推出102.4Tbps的Silicon One G300交换芯片及配套N9000/8000系统,采用液冷设计提升70%能效,支持1.6T光学模块,并升级Nexus One统一管理平面。