Reports
AI-generated structured vendor updates
AMD与Liquid AI探讨从芯片到系统的高效AI架构
AMD CTO与Liquid AI CEO探讨AI架构演进,强调效率是AI从云端向边缘和终端设备扩展的关键。双方认为,通过从芯片到系统的协同设计,可实现低功耗、高响应性的AI推理,支持持续运行的智能体与多模型协同。
微软通过IQ与Agent 365平台化AI能力,推动企业向“前沿”转型
微软CEO Judson Althoff阐述其“前沿企业”愿景,核心是推出“Microsoft IQ”和“Agent 365”两大平台能力,旨在将智能与信任系统化地嵌入企业工作流。通过多个大型客户案例,展示了从Copilot规模化部署到自主AI代理(Agent)构建的演进路径,强调通过开放、模型多样的平台实现业务增长。
思科借硬件更新周期推动AI就绪数据中心架构
思科通过博客指出,企业AI战略受阻的核心在于数据中心基础设施。其主张将AI就绪性融入常规硬件更新周期,强调通过统一运营、网络内嵌安全、端到端可观测性及高性能网络来构建AI基础设施。
微软公布迄今最大规模M365 Copilot企业部署案例
微软宣布埃森哲正在为其超过74万名员工部署Microsoft 365 Copilot,这是该产品迄今为止最大规模的公开部署。此举标志着生成式AI助手正从试点阶段进入大规模企业运营,其成功与否将为企业AI采纳提供关键参考。
微软发布Azure Local大规模扩展,支持主权私有云部署数千节点
微软宣布Azure Local平台现可支持在单一主权边界内部署数千台服务器,为大规模主权私有云提供基础设施。该平台支持在连接、间歇连接或完全断开的环境下运行,并集成了英特尔Xeon 6处理器等硬件,旨在满足国家基础设施、受监管工作负载和本地AI推理对规模、控制与合规性的综合需求。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
AMD发布IDC白皮书,强调AI PC是企业部署Agentic AI的关键基础设施
AMD发布IDC白皮书,指出超过80%的企业正在规划、试点或部署AI PC,以支持Agentic AI的规模化应用。报告强调,高性能NPU和端侧AI处理对于实现实时、安全的工作流至关重要,标志着企业AI基础设施正从云端向端侧扩展。
微软将GPT-5.5集成至企业级Copilot,推动多模型工作流编排
微软宣布将GPT-5.5模型部署至GitHub Copilot、Microsoft 365 Copilot、Copilot Studio及Foundry平台。该更新强调多模型编排,允许用户根据任务(如快速探索、深度推理、执行、审查)选择不同模型,并通过‘橡皮鸭’代理实现多模型反思循环。
思科发布通用量子交换机原型,推动量子网络互联
思科宣布其通用量子交换机研究原型,旨在解决量子网络互联的关键硬件瓶颈。该设备支持不同编码模态的量子系统间转换与路由,无需低温环境,可在标准电信光纤上运行,为构建大规模、异构的量子计算与传感网络奠定基础。
微软在澳大利亚进行250亿澳元AI与云基础设施投资
微软宣布在澳大利亚进行其史上最大规模投资,总额达250亿澳元,旨在扩大AI和云计算基础设施容量、加强网络安全,并提升全国范围内的数字技能。此举旨在将澳大利亚定位为亚太地区的AI中心。
微软发布托管AI Agent基础设施,将AI Agent视为独立计算实体
微软通过Foundry平台推出“托管代理(Hosted agents)”,为每个AI Agent提供独立、隔离的企业级沙盒环境,包含持久化状态、内置身份与治理。此举旨在将AI Agent的运行时基础设施标准化,降低企业部署门槛,但评论指出此举将控制点从应用层转移至基础设施层。
思科将网络定位为AI基础设施的能源控制层
思科通过其博客阐述了能源正成为AI规模化的关键瓶颈,并展示其正为一家欧洲银行设计下一代AI数据中心。思科强调网络在融合数字与能源系统中的作用,将其视为提供能见度、协调和安全性的控制层,以管理AI工作负载的能源、冷却和空间约束。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
微软推出“前沿成功”框架,将智能体AI与企业工作流深度融合
微软在香港AI巡展上推出“前沿成功”框架,旨在帮助企业将智能体AI从实验阶段转向规模化运营。该框架通过整合Copilot、Work IQ和Agent 365等组件,强调在深度工作上下文和安全治理基础上实现AI价值。
Palo Alto发布Scaling AI Agents安全框架:企业AI规模化部署指南
Palo Alto发布Scaling AI Agents with Confidence框架,为企业AI规模化部署提供安全指导。
Palo Alto发布Scaling AI Agents安全框架:企业AI规模化部署指南
Palo Alto发布Scaling AI Agents with Confidence框架,为企业AI规模化部署提供安全指导。框架针对Shadow AI检测、非人类身份治理、安全与速度权衡三大挑战,提供集成生态系统+联合工程+规模验证的三层架构。包含发现评估、防护监控、治理优化四步安全成熟度路径。
思科提出AI网络演进三阶段,强调软件定义与智能运维
思科发布博客阐述其应对AI时代网络挑战的解决方案,核心是通过软件定义网络、统一分支架构和智能运维(AgenticOps)实现网络现代化,避免大规模硬件更换。该方案分为现代化分支、智能优化连接和实现自主运维三个阶段。
微软提前启用Fairwater超大规模AI数据中心,定义AI基础设施新标准
微软宣布其位于威斯康星州的Fairwater数据中心提前投入运营。该中心被定位为全球最强大的AI数据中心,集成了数十万个NVIDIA GB200 GPU,通过大规模光纤互连构成单一无缝集群,旨在为下一代AI模型训练和推理提供前所未有的算力规模。
思科通过新防火墙架构应对AI基础设施的规模化安全挑战
思科发布Secure Firewall 6100系列,通过软件数据平面重构和硬件优化,旨在为AI数据中心、云和电信环境提供高性能、高能效的安全防护。该方案强调在加密流量激增和东西向流量增长背景下,实现安全与性能的平衡,并与Hybrid Mesh Firewall架构集成,提供跨混合环境的一致性策略。
思科以自身实践验证AI本地化部署的安全与成本逻辑
思科客户体验(CX)部门通过部署基于UCS服务器和Nexus交换机的本地AI基础设施,处理敏感客户数据,以应对云上数据主权和推理成本不可预测的挑战。此举展示了将AI工作负载从可变运营成本转向确定性资本投资的架构选择。
英特尔联合诺基亚与戴尔推出面向远边缘的UPF专用设备
英特尔、诺基亚与戴尔在MWC 2026上预展了一款基于英特尔至强6 SoC的远边缘UPF设备。该方案旨在为电信运营商在空间与功耗受限的远边缘环境提供高性能、低功耗的5G核心网用户面处理能力,并集成了AI功能。
Cloudflare扩展Agent Cloud,为下一代AI Agent构建基础设施平台
Cloudflare宣布扩展其Agent Cloud平台,推出动态Workers、Git兼容存储、沙盒环境及持久化框架,旨在为大规模、长周期运行的AI Agent提供安全、高效且可负担的基础设施。此举标志着Cloudflare正从边缘网络服务商向AI原生应用基础设施提供商转型。
英特尔与谷歌深化合作,共同定义异构AI基础设施核心
英特尔与谷歌宣布多年期合作,旨在共同推进下一代AI与云基础设施。核心是强化CPU和定制IPU在异构AI系统中的中心地位,通过多代Xeon处理器优化性能与能效,并扩展基于ASIC的IPU联合开发,以提升超大规模AI环境下的效率与可预测性。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
Meta发布Muse Spark基础模型并重构AI助手架构
Meta推出其Superintelligence Labs的首个模型Muse Spark,并以此为核心全面升级Meta AI助手。新架构支持并行子代理(subagents)协同推理、强大的多模态感知能力,并能调用社交图谱内容提供个性化答案。
思科通过ThousandEyes MCP Server将AI引入MSP运维
思科宣布其ThousandEyes产品推出Model Context Protocol (MCP)服务器。该服务器将ThousandEyes的网络与数字体验洞察直接集成到AI助手(如Claude、ChatGPT)中,使MSP的分析师能通过自然语言进行高级诊断,旨在提升运营效率并改变MSP的服务模式。
思科深化与Nutanix合作,将超融合架构扩展至AI及边缘
思科宣布与Nutanix合作的多项进展,核心是将Nutanix云平台集成到思科AI POD、统一边缘及FlashStack架构中,旨在为从核心到边缘的AI和传统工作负载提供统一的、经过验证的部署蓝图与运营模型。
Arm与马来西亚莫纳什大学合作,推进AI时代半导体人才培养
Arm宣布与马来西亚莫纳什大学工程学院合作,捐赠集成电路设计开发板并派遣高管担任客座讲师,旨在为AI时代培养具备Arm架构和现代系统设计实践经验的半导体人才。
微软联合日本本土运营商构建主权AI基础设施
微软宣布未来四年在日投资100亿美元,核心是与日本樱花互联网和软银合作,通过Azure提供由本土运营商管理的GPU算力服务,确保数据驻留日本。此举旨在满足日本对数据主权和合规性要求严格的AI工作负载需求。
Anthropic投入1亿美元建立Claude合作伙伴网络
Anthropic宣布投入1亿美元启动Claude合作伙伴网络,为系统集成商、咨询公司等合作伙伴提供技术认证、联合市场开发和专属技术支持,旨在加速企业客户从概念验证到生产部署的进程。