Reports
AI-generated structured vendor updates
思科借硬件更新周期推动AI就绪数据中心架构
思科通过博客指出,企业AI战略受阻的核心在于数据中心基础设施。其主张将AI就绪性融入常规硬件更新周期,强调通过统一运营、网络内嵌安全、端到端可观测性及高性能网络来构建AI基础设施。
Arm发布Performix性能分析工具包,瞄准AI Agent时代优化
Arm发布免费性能分析工具包Performix,旨在为AI Agent开发提供跨Arm平台的统一性能洞察与优化。该工具通过Arm MCP Server集成至主流AI开发环境,将硬件运行时数据转化为可操作的优化建议,并已获得微软、MongoDB等生态伙伴支持。
英伟达内部规模化部署GPT-5.5驱动AI代理,定义企业AI基础设施新范式
英伟达宣布其超过1万名员工已通过Codex应用,在基于GB200 NVL72的NVIDIA基础设施上规模化使用GPT-5.5。此举不仅展示了前沿模型推理在企业内部工作流中实现‘变革性’生产力的技术可行性,更通过专用的安全云VM架构,为企业部署AI代理提供了可审计、隔离的参考范式。
思科将网络定位为AI基础设施的能源控制层
思科通过其博客阐述了能源正成为AI规模化的关键瓶颈,并展示其正为一家欧洲银行设计下一代AI数据中心。思科强调网络在融合数字与能源系统中的作用,将其视为提供能见度、协调和安全性的控制层,以管理AI工作负载的能源、冷却和空间约束。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
NVIDIA联手Adobe与WPP,以OpenShell为核心构建企业级AI代理安全架构
NVIDIA深化与Adobe、WPP的战略合作,旨在将智能AI代理置于企业营销运营的核心。其关键动作是推出并强调NVIDIA OpenShell安全运行时,为运行多步工作流的AI代理提供基于策略的、可审计的隔离执行环境。这标志着从单纯的功能性AI向受控、可信的企业级AI代理架构演进。
思科携手英伟达,将网络升级为AI媒体处理的控制平面
思科与英伟达深化合作,推出基于开放标准MXL的验证设计方案。该方案将思科IP媒体架构与英伟达Holoscan平台整合,使网络从传输层演变为支持实时AI推理的主动处理层,为广电行业实现低延迟、多语言的实时AI媒体生产。
微软提前启用Fairwater超大规模AI数据中心,定义AI基础设施新标准
微软宣布其位于威斯康星州的Fairwater数据中心提前投入运营。该中心被定位为全球最强大的AI数据中心,集成了数十万个NVIDIA GB200 GPU,通过大规模光纤互连构成单一无缝集群,旨在为下一代AI模型训练和推理提供前所未有的算力规模。
英伟达推动AI基础设施评估指标从FLOPS转向每token成本
英伟达提出应将“每token成本”而非“每美元FLOPS”作为评估AI基础设施的核心经济指标。这标志着从衡量计算输入转向衡量商业输出,涉及硬件、软件、网络的全栈优化,以降低企业AI推理的总拥有成本。
思科以自身实践验证AI本地化部署的安全与成本逻辑
思科客户体验(CX)部门通过部署基于UCS服务器和Nexus交换机的本地AI基础设施,处理敏感客户数据,以应对云上数据主权和推理成本不可预测的挑战。此举展示了将AI工作负载从可变运营成本转向确定性资本投资的架构选择。
英特尔与谷歌深化合作,共同定义异构AI基础设施核心
英特尔与谷歌宣布多年期合作,旨在共同推进下一代AI与云基础设施。核心是强化CPU和定制IPU在异构AI系统中的中心地位,通过多代Xeon处理器优化性能与能效,并扩展基于ASIC的IPU联合开发,以提升超大规模AI环境下的效率与可预测性。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
思科MWC 2026展示融合S/NOC与代理式AI,推进自主安全运营
思科在MWC 2026上运行了融合安全与网络运营中心,展示了其安全云、XDR与Splunk平台的无缝集成。核心是通过代理式AI生成“即时攻击故事板”,辅助分析师进行事件分级和调查,并将工作流程自动化桥接至Splunk Enterprise Security进行深度威胁狩猎。
英特尔与SambaNova联合发布面向Agentic AI的异构推理架构
英特尔与SambaNova宣布合作,为Agentic AI生产负载设计异构计算蓝图。该方案结合GPU、SambaNova RDU和英特尔至强6处理器,旨在解决性能、效率与软件兼容性挑战,预计2026年下半年推出。
思科深化与Nutanix合作,将超融合架构扩展至AI及边缘
思科宣布与Nutanix合作的多项进展,核心是将Nutanix云平台集成到思科AI POD、统一边缘及FlashStack架构中,旨在为从核心到边缘的AI和传统工作负载提供统一的、经过验证的部署蓝图与运营模型。
Arm与马来西亚莫纳什大学合作,推进AI时代半导体人才培养
Arm宣布与马来西亚莫纳什大学工程学院合作,捐赠集成电路设计开发板并派遣高管担任客座讲师,旨在为AI时代培养具备Arm架构和现代系统设计实践经验的半导体人才。
微软联合日本本土运营商构建主权AI基础设施
微软宣布未来四年在日投资100亿美元,核心是与日本樱花互联网和软银合作,通过Azure提供由本土运营商管理的GPU算力服务,确保数据驻留日本。此举旨在满足日本对数据主权和合规性要求严格的AI工作负载需求。
Anthropic在悉尼设立亚太第四办公室,探索本地计算能力
Anthropic宣布将在澳大利亚悉尼设立其亚太区第四个办公室,以服务澳新市场。公司计划深化与当地机构的合作,并探索通过第三方合作伙伴在澳大利亚扩展计算能力,以满足企业数据驻留需求。
谷歌发布Gemma 4开源模型,瞄准边缘推理与AI代理架构
谷歌推出Gemma 4开源模型家族,包含从2B到31B的四个版本,强调单位参数性能突破,并原生支持AI代理工作流、多模态与长上下文。其小参数模型专为边缘设备优化,旨在将前沿推理能力扩展至移动与IoT场景。
Google发布Gemma 4开源模型系列
Google推出Gemma 4开源模型系列,包含四种规模变体,特别优化边缘计算和移动设备。该系列支持多模态处理、长上下文窗口和140多种语言,采用Apache 2.0许可。
思科推出验证式AI基础设施解决方案
思科发布经过验证的AI基础设施设计方案,通过与NVIDIA和红帽合作,提供预集成、测试的AI POD解决方案,旨在解决企业DIY AI基础设施时的兼容性和安全问题。该方案包含计算、网络、存储和AI软件的完整堆栈,并提供模块化扩展能力。
AMD发布突破性MLPerf 6.0推理结果,展示多节点扩展与多模态能力
AMD在MLPerf Inference 6.0基准测试中,凭借Instinct MI355X GPU在Llama 2 70B和GPT-OSS-120B模型上首次突破每秒100万令牌的推理吞吐量。其提交强调了多节点扩展效率、对新型文本到视频模型(Wan-2.2-t2v)的快速启用,以及广泛的合作伙伴生态系统复现结果。
ARM推出自研AGI CPU芯片,扩展AI基础设施布局
ARM首次推出自研AGI CPU芯片,突破传统IP授权模式,提供从定制化芯片到完整平台解决方案的全栈能力。此举将重构AI基础设施供应链控制权,推动企业从硬件层优化AI工作负载部署效率。
英特尔在MLPerf推理测试中展示Xeon 6与Arc Pro GPU的AI性能
英特尔在MLPerf Inference v6.0基准测试中展示了其Xeon 6 CPU和Arc Pro B系列GPU的性能,特别是在处理大型语言模型(LLM)时的表现。测试结果显示,配备四块Arc Pro B70 GPU的系统能够处理120B参数的模型,并在多GPU设置中提供高达1.8倍的推理性能提升。
NVIDIA联合能源厂商推动AI工厂成为智能电网资产
NVIDIA与能源软件公司Emerald AI合作,提出将大型AI数据中心(AI工厂)从静态电力负载转变为可灵活响应电网状况的智能资产。该架构整合了加速计算、电力网络与控制,旨在提升电网可靠性并优化能源使用效率。多家大型能源公司计划基于此架构合作,以支持AI负载并加速电力接入。
NVIDIA联合能源企业推进AI工厂与电网协同架构
NVIDIA与Emerald AI合作推出将AI工厂作为智能电网资产的新架构,整合加速计算、实时能源调度和参考设计,使大规模AI部署能动态响应电网需求。该方案基于Vera Rubin DSX参考设计和Conductor平台,已获多家能源企业支持实施。
Arm首次推出自研AGI CPU,进军数据中心硅产品市场
Arm宣布其计算平台首次扩展至生产级硅产品,推出自研的Arm AGI CPU,专为AI数据中心和Agentic AI工作负载设计。该CPU旨在提供远超x86平台的每机架性能与能效,并已获得Meta、OpenAI等关键客户及广泛OEM/ODM生态支持。
ARM推出AGI CPU:AI Agent时代的硅基础
ARM宣布推出Arm AGI CPU,这是其首款自有硅产品,基于Neoverse平台,专为agentic AI时代设计。该CPU优化大规模并行工作负载,在1OU配置中支持272核心/刀片,全机架达8160核心,性能比x86系统提高两倍以上,提升AI基础设施效率。
ARM推出AGI CPU芯片,进军AI基础设施市场
ARM于2026年3月推出首款自研AGI CPU生产级芯片,标志着从IP授权模式向完整硅解决方案提供商的战略转型。该芯片专为下一代AI基础设施设计,可能重塑数据中心处理器生态格局。
ARM Neoverse重塑AI基础设施控制层
ARM推出Neoverse系列基础设施CPU核心,专为云计算、AI和高性能计算优化,被NVIDIA、AWS、Microsoft和Google等厂商采用于其AI平台,实现性能提升和能效改进。该架构推动AI工作负载在云和边缘的高密度部署,强化安全多租户支持。