Reports
AI-generated structured vendor updates
英伟达通过NemoClaw与OpenClaw合作,推动企业级自主AI代理安全部署
英伟达通过NemoClaw参考实现,整合OpenShell安全运行时与Nemotron开源模型,为企业提供安全部署“长时运行自主AI代理”的蓝图。此举旨在应对自主AI代理带来的千倍推理需求增长与安全治理挑战,将AI基础设施控制点向本地、安全、可审计的架构迁移。
思科发布液冷网络交换机,将液冷架构扩展至AI基础设施核心
思科正式发布采用直接芯片液冷设计的N9000与8000系统,将液冷技术从GPU服务器扩展至网络交换机。该产品将带宽密度提升一倍,能耗降低近70%,旨在解决AI集群高功率密度带来的散热挑战。此举标志着数据中心冷却架构正从部件级优化转向系统性重构。
思科开源AI模型血缘工具包,瞄准AI供应链安全治理层
思科发布开源工具Model Provenance Kit,通过分析模型元数据、分词器及权重信号,生成唯一指纹并比对,以技术手段验证AI模型的血缘关系与完整性,旨在应对模型供应链中存在的篡改、伪造及合规风险。
思科发布量子安全架构,将防御纵深扩展至硬件信任根
思科发布了其量子安全战略的架构细节,提出“安全通信”与“安全产品”两大支柱。其核心在于将后量子密码技术从网络协议层延伸至设备硬件信任链,通过集成信任锚模块和量子安全启动流程,旨在保护平台完整性,而不仅仅是数据在途安全。
英特尔与ChatPPT合作推出混合AI PC版,推动AI工作负载本地化
英特尔与AI应用ChatPPT合作,利用其AI Super Builder技术推出混合AI PC版。该版本将部分AI工作负载(如格式调整)从云端卸载至本地PC处理,降低了50%的云成本并提升了32%的用户使用时长,同时增强了数据隐私。
微软定义“智能体计算时代”,将AI基础设施与智能体平台作为核心战略
微软CEO在财报后明确将“从终端用户驱动的工作负载转向由终端用户和智能体共同驱动的工作负载”视为改变整个技术栈的平台迁移。公司战略聚焦于建设领先的AI基础设施与智能体平台,并已将其AI业务年化收入推升至370亿美元。
AMD与Liquid AI探讨从芯片到系统的高效AI架构
AMD CTO与Liquid AI CEO探讨AI架构演进,强调效率是AI从云端向边缘和终端设备扩展的关键。双方认为,通过从芯片到系统的协同设计,可实现低功耗、高响应性的AI推理,支持持续运行的智能体与多模型协同。
英伟达发布Nemotron 3 Nano Omni统一多模态模型,瞄准AI Agent感知层
英伟达发布开源多模态模型Nemotron 3 Nano Omni,采用30B-A3B混合MoE架构,将视觉、音频与语言处理统一于单一模型,旨在作为AI Agent的“眼睛和耳朵”。该模型声称能消除多模型协作的延迟与上下文碎片化问题,在保持交互性的同时实现高达9倍的吞吐量提升,降低AI Agent的部署与推理成本。
思科借硬件更新周期推动AI就绪数据中心架构
思科通过博客指出,企业AI战略受阻的核心在于数据中心基础设施。其主张将AI就绪性融入常规硬件更新周期,强调通过统一运营、网络内嵌安全、端到端可观测性及高性能网络来构建AI基础设施。
英伟达以OpenUSD和Omniverse为核心,推动制造业进入“仿真优先”时代
英伟达通过SimReady标准、Omniverse物理仿真库及Metropolis蓝图,构建了完整的物理AI技术栈,旨在将制造业传统的“设计-制造-测试”循环转变为基于高保真仿真的“仿真优先”范式。该架构使AI模型训练和系统验证在虚拟环境中完成,大幅缩短产品周期并降低成本。
Arm发布Performix性能分析工具包,瞄准AI Agent时代优化
Arm发布免费性能分析工具包Performix,旨在为AI Agent开发提供跨Arm平台的统一性能洞察与优化。该工具通过Arm MCP Server集成至主流AI开发环境,将硬件运行时数据转化为可操作的优化建议,并已获得微软、MongoDB等生态伙伴支持。
微软发布Azure Local大规模扩展,支持主权私有云部署数千节点
微软宣布Azure Local平台现可支持在单一主权边界内部署数千台服务器,为大规模主权私有云提供基础设施。该平台支持在连接、间歇连接或完全断开的环境下运行,并集成了英特尔Xeon 6处理器等硬件,旨在满足国家基础设施、受监管工作负载和本地AI推理对规模、控制与合规性的综合需求。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
AMD发布IDC白皮书,强调AI PC是企业部署Agentic AI的关键基础设施
AMD发布IDC白皮书,指出超过80%的企业正在规划、试点或部署AI PC,以支持Agentic AI的规模化应用。报告强调,高性能NPU和端侧AI处理对于实现实时、安全的工作流至关重要,标志着企业AI基础设施正从云端向端侧扩展。
Apple与Google达成多年期合作,Gemini将成Siri新大脑
Apple与Google达成多年期合作,Google Cloud成为Apple首选云服务商。Google正为Apple构建1.2万亿参数的定制Gemini模型,是当前Apple云端模型的8倍。Siri将在2026年获得Gemini能力,随iOS 27在秋季发布。隐私架构保持不变——Gemini模型运行在Apple自有服务器,Google不得使用Apple数据训练。设备兼容性限制意味着数亿老款iPhone用户被排除在外。
英伟达内部规模化部署GPT-5.5驱动AI代理,定义企业AI基础设施新范式
英伟达宣布其超过1万名员工已通过Codex应用,在基于GB200 NVL72的NVIDIA基础设施上规模化使用GPT-5.5。此举不仅展示了前沿模型推理在企业内部工作流中实现‘变革性’生产力的技术可行性,更通过专用的安全云VM架构,为企业部署AI代理提供了可审计、隔离的参考范式。
思科通过资本部门加速AI数据中心融资模式转型
思科博客阐述其内部金融服务机构Cisco Capital如何提供灵活的支付解决方案,帮助客户应对AI数据中心快速迭代带来的资金压力。该模式旨在将硬件、软件和服务捆绑,简化采购流程,使IT支出与基础设施的演进周期保持一致。
思科发布通用量子交换机原型,推动量子网络互联
思科宣布其通用量子交换机研究原型,旨在解决量子网络互联的关键硬件瓶颈。该设备支持不同编码模态的量子系统间转换与路由,无需低温环境,可在标准电信光纤上运行,为构建大规模、异构的量子计算与传感网络奠定基础。
微软在澳大利亚进行250亿澳元AI与云基础设施投资
微软宣布在澳大利亚进行其史上最大规模投资,总额达250亿澳元,旨在扩大AI和云计算基础设施容量、加强网络安全,并提升全国范围内的数字技能。此举旨在将澳大利亚定位为亚太地区的AI中心。
微软发布托管AI Agent基础设施,将AI Agent视为独立计算实体
微软通过Foundry平台推出“托管代理(Hosted agents)”,为每个AI Agent提供独立、隔离的企业级沙盒环境,包含持久化状态、内置身份与治理。此举旨在将AI Agent的运行时基础设施标准化,降低企业部署门槛,但评论指出此举将控制点从应用层转移至基础设施层。
思科将网络定位为AI基础设施的能源控制层
思科通过其博客阐述了能源正成为AI规模化的关键瓶颈,并展示其正为一家欧洲银行设计下一代AI数据中心。思科强调网络在融合数字与能源系统中的作用,将其视为提供能见度、协调和安全性的控制层,以管理AI工作负载的能源、冷却和空间约束。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
思科发布OT安全入门框架,强调经济性与可执行性
思科发布工业OT安全入门框架,针对中型企业资源有限现状,提出分阶段、低成本的实施路径。核心是避免因过度依赖SPAN端口等被动监控架构而产生高昂的隐性基础设施成本,转而利用现有网络设备(如支持Cyber Vision的交换机)实现初步可见性。
Anthropic与AWS签署千亿美元协议锁定未来十年AI算力
Anthropic与亚马逊AWS签署新协议,承诺未来十年投入超1000亿美元,锁定高达5吉瓦的AI算力容量,并计划将Claude平台深度集成至AWS。此举旨在应对其AI模型Claude的爆炸性需求增长,并巩固其作为AWS上关键AI模型提供商的地位。
思科与罗克韦尔深化合作,推动工业AI从试点走向规模化生产
思科与罗克韦尔自动化强化战略合作,旨在解决工业AI从试点到规模化部署的瓶颈。双方强调,阻碍规模化部署的核心并非AI模型或算力,而是底层网络、计算、可观测性与安全集成的统一基础设施。该合作聚焦于通过思科统一边缘等平台,将AI能力嵌入生产现场,实现实时质量检测与预测性维护。
Anthropic发布Claude Design,整合AI视觉与设计工作流
Anthropic推出Claude Design,通过其最强视觉模型Claude Opus 4.7驱动,允许用户协作创建设计、原型和演示文稿等。该产品面向企业团队,支持从代码库自动构建品牌设计系统,并能将设计无缝移交给Claude Code进行开发。
思科提出AI网络演进三阶段,强调软件定义与智能运维
思科发布博客阐述其应对AI时代网络挑战的解决方案,核心是通过软件定义网络、统一分支架构和智能运维(AgenticOps)实现网络现代化,避免大规模硬件更换。该方案分为现代化分支、智能优化连接和实现自主运维三个阶段。
思科携手英伟达,将网络升级为AI媒体处理的控制平面
思科与英伟达深化合作,推出基于开放标准MXL的验证设计方案。该方案将思科IP媒体架构与英伟达Holoscan平台整合,使网络从传输层演变为支持实时AI推理的主动处理层,为广电行业实现低延迟、多语言的实时AI媒体生产。
微软提前启用Fairwater超大规模AI数据中心,定义AI基础设施新标准
微软宣布其位于威斯康星州的Fairwater数据中心提前投入运营。该中心被定位为全球最强大的AI数据中心,集成了数十万个NVIDIA GB200 GPU,通过大规模光纤互连构成单一无缝集群,旨在为下一代AI模型训练和推理提供前所未有的算力规模。
Anthropic发布Claude Opus 4.7并引入网络安全护栏
Anthropic正式发布Claude Opus 4.7模型,在复杂软件工程、多模态理解和长时推理任务上实现显著提升。该版本首次引入了针对高风险网络安全用途的自动检测与拦截护栏,并为安全研究设立了验证程序,旨在为更强大模型(如Mythos)的广泛发布积累安全经验。