情报
AI 生成的结构化厂商动态简报
NVIDIA Rubin GPU生产目标下调,Blackwell 2026年占比升至71%
NVIDIA Rubin GPU生产目标从200万颗下调至150万颗,主要因HBM4内存验证延迟。TrendForce数据显示2026年Blackwell占比从61%升至71%,巩固主导地位。美光退出Rubin HBM4供应链,SK海力士将占70%份额。分析师维持增持评级,认为影响有限。Rubin延迟可能延长SK海力士HBM3E的市场主导期。
英伟达内部规模化部署GPT-5.5驱动AI代理,定义企业AI基础设施新范式
英伟达宣布其超过1万名员工已通过Codex应用,在基于GB200 NVL72的NVIDIA基础设施上规模化使用GPT-5.5。此举不仅展示了前沿模型推理在企业内部工作流中实现‘变革性’生产力的技术可行性,更通过专用的安全云VM架构,为企业部署AI代理提供了可审计、隔离的参考范式。
NVIDIA内部部署OpenAI Codex:万人使用GPT-5.5驱动智能体编程革命
NVIDIA超过10,000名员工使用OpenAI Codex,GPT-5.5运行于GB200 NVL72平台,推理成本降低35倍。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
微软提前启用Fairwater超大规模AI数据中心,定义AI基础设施新标准
微软宣布其位于威斯康星州的Fairwater数据中心提前投入运营。该中心被定位为全球最强大的AI数据中心,集成了数十万个NVIDIA GB200 GPU,通过大规模光纤互连构成单一无缝集群,旨在为下一代AI模型训练和推理提供前所未有的算力规模。
TSMC Q1财报:先进封装产能瓶颈将持续制约2025年AI芯片供应
台积电Q1财报显示HPC业务占比首次突破60%,CoWoS先进封装产能将持续紧张至2027年,AI芯片供应链的真正瓶颈不在制程而在封装。
AWS与OpenAI签署380亿美元AI云合作
OpenAI与AWS签署7年期380亿美元协议,部署数千块NVIDIA GB200/GB300 GPU。OpenAI首次重大多元化Azure基础设施。
NVIDIA将GPU动态资源分配驱动捐给Kubernetes社区
NVIDIA将其GPU动态资源分配(DRA)驱动捐献给CNCF,使其成为Kubernetes上游项目。此举旨在将GPU编排的核心控制点从厂商专有层上移至开源社区,并协同多家云厂商推动标准化。