Reports
AI-generated structured vendor updates
思科借硬件更新周期推动AI就绪数据中心架构
思科通过博客指出,企业AI战略受阻的核心在于数据中心基础设施。其主张将AI就绪性融入常规硬件更新周期,强调通过统一运营、网络内嵌安全、端到端可观测性及高性能网络来构建AI基础设施。
英伟达以OpenUSD和Omniverse为核心,推动制造业进入“仿真优先”时代
英伟达通过SimReady标准、Omniverse物理仿真库及Metropolis蓝图,构建了完整的物理AI技术栈,旨在将制造业传统的“设计-制造-测试”循环转变为基于高保真仿真的“仿真优先”范式。该架构使AI模型训练和系统验证在虚拟环境中完成,大幅缩短产品周期并降低成本。
思科SD-WAN更新:AI应用分类、AI助手与Neocloud连接性集成
思科发布SD-WAN 26.1.1版本,重点增强AI就绪能力。更新包括对AI应用的自动识别与分类、内置生成式AI助手用于运维,以及与Megaport AI Exchange集成以连接分布式GPU和Neocloud环境。此举旨在优化AI流量性能与安全,并简化网络操作。
微软发布Azure Local大规模扩展,支持主权私有云部署数千节点
微软宣布Azure Local平台现可支持在单一主权边界内部署数千台服务器,为大规模主权私有云提供基础设施。该平台支持在连接、间歇连接或完全断开的环境下运行,并集成了英特尔Xeon 6处理器等硬件,旨在满足国家基础设施、受监管工作负载和本地AI推理对规模、控制与合规性的综合需求。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
AMD发布IDC白皮书,强调AI PC是企业部署Agentic AI的关键基础设施
AMD发布IDC白皮书,指出超过80%的企业正在规划、试点或部署AI PC,以支持Agentic AI的规模化应用。报告强调,高性能NPU和端侧AI处理对于实现实时、安全的工作流至关重要,标志着企业AI基础设施正从云端向端侧扩展。
NVIDIA Rubin GPU生产目标下调,Blackwell 2026年占比升至71%
NVIDIA Rubin GPU生产目标从200万颗下调至150万颗,主要因HBM4内存验证延迟。TrendForce数据显示2026年Blackwell占比从61%升至71%,巩固主导地位。美光退出Rubin HBM4供应链,SK海力士将占70%份额。分析师维持增持评级,认为影响有限。Rubin延迟可能延长SK海力士HBM3E的市场主导期。
英伟达内部规模化部署GPT-5.5驱动AI代理,定义企业AI基础设施新范式
英伟达宣布其超过1万名员工已通过Codex应用,在基于GB200 NVL72的NVIDIA基础设施上规模化使用GPT-5.5。此举不仅展示了前沿模型推理在企业内部工作流中实现‘变革性’生产力的技术可行性,更通过专用的安全云VM架构,为企业部署AI代理提供了可审计、隔离的参考范式。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
Google全域算力池化:资源利用率从35%提升至85%
Google发布全域算力池化技术,资源利用率从35%提升至85%+,成本降低40%+,支持跨区域、跨云厂商资源整合。
NVIDIA联手Adobe与WPP,以OpenShell为核心构建企业级AI代理安全架构
NVIDIA深化与Adobe、WPP的战略合作,旨在将智能AI代理置于企业营销运营的核心。其关键动作是推出并强调NVIDIA OpenShell安全运行时,为运行多步工作流的AI代理提供基于策略的、可审计的隔离执行环境。这标志着从单纯的功能性AI向受控、可信的企业级AI代理架构演进。
微软提前启用Fairwater超大规模AI数据中心,定义AI基础设施新标准
微软宣布其位于威斯康星州的Fairwater数据中心提前投入运营。该中心被定位为全球最强大的AI数据中心,集成了数十万个NVIDIA GB200 GPU,通过大规模光纤互连构成单一无缝集群,旨在为下一代AI模型训练和推理提供前所未有的算力规模。
英伟达推动AI基础设施评估指标从FLOPS转向每token成本
英伟达提出应将“每token成本”而非“每美元FLOPS”作为评估AI基础设施的核心经济指标。这标志着从衡量计算输入转向衡量商业输出,涉及硬件、软件、网络的全栈优化,以降低企业AI推理的总拥有成本。
AWS与OpenAI签署380亿美元AI云合作
OpenAI与AWS签署7年期380亿美元协议,部署数千块NVIDIA GB200/GB300 GPU。OpenAI首次重大多元化Azure基础设施。
NVIDIA GPU租金2个月上涨48%
NVIDIA Blackwell GPU租金达4.08美元/小时,2个月上涨48%。中国云厂商同步涨价,智谱API Q1累计上调83%。
NVIDIA GPU租金2个月上涨48%
NVIDIA Blackwell系列GPU云端现货租金达4.08美元/小时,较两个月前上涨48%。
微软发布高效AI图像模型,成本降低41%并瞄准规模化生产
微软发布MAI-Image-2-Efficient模型,在保持旗舰级质量的同时,推理速度提升22%,效率提升4倍,成本降低41%。该模型定位为规模化生产“主力”,已集成至Microsoft Foundry和Copilot,旨在降低企业AI应用门槛。
思科联合工业自动化厂商,推动工厂边缘成为统一AI计算平台
思科在汉诺威工业展上联合罗克韦尔自动化等厂商,提出工厂边缘正演变为一个集成了控制、可视化与AI推理的统一计算平台。其核心是通过Cisco Unified Edge架构,将传统孤立的PLC、HMI、SCADA与AI工作负载(如视觉检测、预测性维护)整合,实现从洞察到实时闭环行动的转变。
NVIDIA发布全球首个开源量子AI模型Ising
NVIDIA发布全球首个开源量子AI模型家族Ising,包含校准模型(350亿参数VLM)和解码模型(3D CNN),性能超越行业标准2.5-3倍,校准时间从数天缩短到数小时。黄仁勋称AI成为量子机器操作系统。IonQ、Harvard、Fermi Lab等机构已采用,量子股票大涨18%。
英特尔与谷歌深化合作,共同定义异构AI基础设施核心
英特尔与谷歌宣布多年期合作,旨在共同推进下一代AI与云基础设施。核心是强化CPU和定制IPU在异构AI系统中的中心地位,通过多代Xeon处理器优化性能与能效,并扩展基于ASIC的IPU联合开发,以提升超大规模AI环境下的效率与可预测性。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
英特尔与SambaNova联合发布面向Agentic AI的异构推理架构
英特尔与SambaNova宣布合作,为Agentic AI生产负载设计异构计算蓝图。该方案结合GPU、SambaNova RDU和英特尔至强6处理器,旨在解决性能、效率与软件兼容性挑战,预计2026年下半年推出。
思科深化与Nutanix合作,将超融合架构扩展至AI及边缘
思科宣布与Nutanix合作的多项进展,核心是将Nutanix云平台集成到思科AI POD、统一边缘及FlashStack架构中,旨在为从核心到边缘的AI和传统工作负载提供统一的、经过验证的部署蓝图与运营模型。
微软联合日本本土运营商构建主权AI基础设施
微软宣布未来四年在日投资100亿美元,核心是与日本樱花互联网和软银合作,通过Azure提供由本土运营商管理的GPU算力服务,确保数据驻留日本。此举旨在满足日本对数据主权和合规性要求严格的AI工作负载需求。
Anthropic联合谷歌与博通锁定千兆瓦级下一代TPU算力
Anthropic宣布与谷歌及博通达成新协议,锁定数千兆瓦的下一代TPU算力,预计2027年上线。此举旨在支撑其前沿Claude模型的训练与推理,并满足全球客户激增的需求。该合作是Anthropic对美国计算基础设施500亿美元投资承诺的重大扩展。
英伟达联合谷歌优化Gemma 4,强化本地AI代理基础设施
英伟达宣布与谷歌合作,针对其RTX、DGX Spark及Jetson平台,对Gemma 4系列开源模型进行深度优化。此举旨在将高性能、多模态AI推理能力从云端扩展至边缘设备和个人工作站,为本地AI代理(Agentic AI)提供从2B到31B参数的全栈模型支持。
NVIDIA 优化 Gemma 4 模型以加速本地代理 AI
NVIDIA 与 Google 合作优化 Gemma 4 系列模型,使其能够在从边缘设备到高性能 GPU 的各种 NVIDIA 硬件上高效运行。这些模型支持多种任务,包括推理、编码和代理功能,适用于本地代理 AI 应用。
谷歌发布Gemma 4开源模型,瞄准边缘推理与AI代理架构
谷歌推出Gemma 4开源模型家族,包含从2B到31B的四个版本,强调单位参数性能突破,并原生支持AI代理工作流、多模态与长上下文。其小参数模型专为边缘设备优化,旨在将前沿推理能力扩展至移动与IoT场景。
Google发布Gemma 4开源模型系列
Google推出Gemma 4开源模型系列,包含四种规模变体,特别优化边缘计算和移动设备。该系列支持多模态处理、长上下文窗口和140多种语言,采用Apache 2.0许可。
思科推出验证式AI基础设施解决方案
思科发布经过验证的AI基础设施设计方案,通过与NVIDIA和红帽合作,提供预集成、测试的AI POD解决方案,旨在解决企业DIY AI基础设施时的兼容性和安全问题。该方案包含计算、网络、存储和AI软件的完整堆栈,并提供模块化扩展能力。