Reports
AI-generated structured vendor updates
AMD与Liquid AI探讨从芯片到系统的高效AI架构
AMD CTO与Liquid AI CEO探讨AI架构演进,强调效率是AI从云端向边缘和终端设备扩展的关键。双方认为,通过从芯片到系统的协同设计,可实现低功耗、高响应性的AI推理,支持持续运行的智能体与多模型协同。
英伟达发布Nemotron 3 Nano Omni统一多模态模型,瞄准AI Agent感知层
英伟达发布开源多模态模型Nemotron 3 Nano Omni,采用30B-A3B混合MoE架构,将视觉、音频与语言处理统一于单一模型,旨在作为AI Agent的“眼睛和耳朵”。该模型声称能消除多模型协作的延迟与上下文碎片化问题,在保持交互性的同时实现高达9倍的吞吐量提升,降低AI Agent的部署与推理成本。
思科借硬件更新周期推动AI就绪数据中心架构
思科通过博客指出,企业AI战略受阻的核心在于数据中心基础设施。其主张将AI就绪性融入常规硬件更新周期,强调通过统一运营、网络内嵌安全、端到端可观测性及高性能网络来构建AI基础设施。
英伟达以OpenUSD和Omniverse为核心,推动制造业进入“仿真优先”时代
英伟达通过SimReady标准、Omniverse物理仿真库及Metropolis蓝图,构建了完整的物理AI技术栈,旨在将制造业传统的“设计-制造-测试”循环转变为基于高保真仿真的“仿真优先”范式。该架构使AI模型训练和系统验证在虚拟环境中完成,大幅缩短产品周期并降低成本。
Arm发布Performix性能分析工具包,瞄准AI Agent时代优化
Arm发布免费性能分析工具包Performix,旨在为AI Agent开发提供跨Arm平台的统一性能洞察与优化。该工具通过Arm MCP Server集成至主流AI开发环境,将硬件运行时数据转化为可操作的优化建议,并已获得微软、MongoDB等生态伙伴支持。
微软发布Azure Local大规模扩展,支持主权私有云部署数千节点
微软宣布Azure Local平台现可支持在单一主权边界内部署数千台服务器,为大规模主权私有云提供基础设施。该平台支持在连接、间歇连接或完全断开的环境下运行,并集成了英特尔Xeon 6处理器等硬件,旨在满足国家基础设施、受监管工作负载和本地AI推理对规模、控制与合规性的综合需求。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
AMD发布IDC白皮书,强调AI PC是企业部署Agentic AI的关键基础设施
AMD发布IDC白皮书,指出超过80%的企业正在规划、试点或部署AI PC,以支持Agentic AI的规模化应用。报告强调,高性能NPU和端侧AI处理对于实现实时、安全的工作流至关重要,标志着企业AI基础设施正从云端向端侧扩展。
Apple与Google达成多年期合作,Gemini将成Siri新大脑
Apple与Google达成多年期合作,Google Cloud成为Apple首选云服务商。Google正为Apple构建1.2万亿参数的定制Gemini模型,是当前Apple云端模型的8倍。Siri将在2026年获得Gemini能力,随iOS 27在秋季发布。隐私架构保持不变——Gemini模型运行在Apple自有服务器,Google不得使用Apple数据训练。设备兼容性限制意味着数亿老款iPhone用户被排除在外。
英伟达内部规模化部署GPT-5.5驱动AI代理,定义企业AI基础设施新范式
英伟达宣布其超过1万名员工已通过Codex应用,在基于GB200 NVL72的NVIDIA基础设施上规模化使用GPT-5.5。此举不仅展示了前沿模型推理在企业内部工作流中实现‘变革性’生产力的技术可行性,更通过专用的安全云VM架构,为企业部署AI代理提供了可审计、隔离的参考范式。
思科通过资本部门加速AI数据中心融资模式转型
思科博客阐述其内部金融服务机构Cisco Capital如何提供灵活的支付解决方案,帮助客户应对AI数据中心快速迭代带来的资金压力。该模式旨在将硬件、软件和服务捆绑,简化采购流程,使IT支出与基础设施的演进周期保持一致。
思科发布通用量子交换机原型,推动量子网络互联
思科宣布其通用量子交换机研究原型,旨在解决量子网络互联的关键硬件瓶颈。该设备支持不同编码模态的量子系统间转换与路由,无需低温环境,可在标准电信光纤上运行,为构建大规模、异构的量子计算与传感网络奠定基础。
微软在澳大利亚进行250亿澳元AI与云基础设施投资
微软宣布在澳大利亚进行其史上最大规模投资,总额达250亿澳元,旨在扩大AI和云计算基础设施容量、加强网络安全,并提升全国范围内的数字技能。此举旨在将澳大利亚定位为亚太地区的AI中心。
微软发布托管AI Agent基础设施,将AI Agent视为独立计算实体
微软通过Foundry平台推出“托管代理(Hosted agents)”,为每个AI Agent提供独立、隔离的企业级沙盒环境,包含持久化状态、内置身份与治理。此举旨在将AI Agent的运行时基础设施标准化,降低企业部署门槛,但评论指出此举将控制点从应用层转移至基础设施层。
思科将网络定位为AI基础设施的能源控制层
思科通过其博客阐述了能源正成为AI规模化的关键瓶颈,并展示其正为一家欧洲银行设计下一代AI数据中心。思科强调网络在融合数字与能源系统中的作用,将其视为提供能见度、协调和安全性的控制层,以管理AI工作负载的能源、冷却和空间约束。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
思科发布OT安全入门框架,强调经济性与可执行性
思科发布工业OT安全入门框架,针对中型企业资源有限现状,提出分阶段、低成本的实施路径。核心是避免因过度依赖SPAN端口等被动监控架构而产生高昂的隐性基础设施成本,转而利用现有网络设备(如支持Cyber Vision的交换机)实现初步可见性。
Anthropic与AWS签署千亿美元协议锁定未来十年AI算力
Anthropic与亚马逊AWS签署新协议,承诺未来十年投入超1000亿美元,锁定高达5吉瓦的AI算力容量,并计划将Claude平台深度集成至AWS。此举旨在应对其AI模型Claude的爆炸性需求增长,并巩固其作为AWS上关键AI模型提供商的地位。
思科与罗克韦尔深化合作,推动工业AI从试点走向规模化生产
思科与罗克韦尔自动化强化战略合作,旨在解决工业AI从试点到规模化部署的瓶颈。双方强调,阻碍规模化部署的核心并非AI模型或算力,而是底层网络、计算、可观测性与安全集成的统一基础设施。该合作聚焦于通过思科统一边缘等平台,将AI能力嵌入生产现场,实现实时质量检测与预测性维护。
Anthropic发布Claude Design,整合AI视觉与设计工作流
Anthropic推出Claude Design,通过其最强视觉模型Claude Opus 4.7驱动,允许用户协作创建设计、原型和演示文稿等。该产品面向企业团队,支持从代码库自动构建品牌设计系统,并能将设计无缝移交给Claude Code进行开发。
思科提出AI网络演进三阶段,强调软件定义与智能运维
思科发布博客阐述其应对AI时代网络挑战的解决方案,核心是通过软件定义网络、统一分支架构和智能运维(AgenticOps)实现网络现代化,避免大规模硬件更换。该方案分为现代化分支、智能优化连接和实现自主运维三个阶段。
思科携手英伟达,将网络升级为AI媒体处理的控制平面
思科与英伟达深化合作,推出基于开放标准MXL的验证设计方案。该方案将思科IP媒体架构与英伟达Holoscan平台整合,使网络从传输层演变为支持实时AI推理的主动处理层,为广电行业实现低延迟、多语言的实时AI媒体生产。
微软提前启用Fairwater超大规模AI数据中心,定义AI基础设施新标准
微软宣布其位于威斯康星州的Fairwater数据中心提前投入运营。该中心被定位为全球最强大的AI数据中心,集成了数十万个NVIDIA GB200 GPU,通过大规模光纤互连构成单一无缝集群,旨在为下一代AI模型训练和推理提供前所未有的算力规模。
Anthropic发布Claude Opus 4.7并引入网络安全护栏
Anthropic正式发布Claude Opus 4.7模型,在复杂软件工程、多模态理解和长时推理任务上实现显著提升。该版本首次引入了针对高风险网络安全用途的自动检测与拦截护栏,并为安全研究设立了验证程序,旨在为更强大模型(如Mythos)的广泛发布积累安全经验。
思科研究揭示多模态提示注入攻击新风险与防御信号
思科AI安全研究团队发布报告,系统评估了针对视觉语言模型的排版式提示注入攻击。研究发现,字体大小、模糊、旋转等视觉变换显著影响攻击成功率,并首次提出文本-图像嵌入距离可作为轻量级、模型无关的风险信号,为构建多模态AI安全防御层提供了新思路。
英伟达推动AI基础设施评估指标从FLOPS转向每token成本
英伟达提出应将“每token成本”而非“每美元FLOPS”作为评估AI基础设施的核心经济指标。这标志着从衡量计算输入转向衡量商业输出,涉及硬件、软件、网络的全栈优化,以降低企业AI推理的总拥有成本。
思科定义AI时代统一基础设施管理平台标准
思科通过其博客文章,系统性地阐述了AI时代对基础设施管理平台的新要求,并以此定位其Intersight平台。核心标准包括跨异构环境的策略自动执行、端到端生命周期自动化、与支持流程深度集成、支持多种部署模式以及开放API集成第三方生态。
思科联合工业自动化厂商,推动工厂边缘成为统一AI计算平台
思科在汉诺威工业展上联合罗克韦尔自动化等厂商,提出工厂边缘正演变为一个集成了控制、可视化与AI推理的统一计算平台。其核心是通过Cisco Unified Edge架构,将传统孤立的PLC、HMI、SCADA与AI工作负载(如视觉检测、预测性维护)整合,实现从洞察到实时闭环行动的转变。
思科以自身实践验证AI本地化部署的安全与成本逻辑
思科客户体验(CX)部门通过部署基于UCS服务器和Nexus交换机的本地AI基础设施,处理敏感客户数据,以应对云上数据主权和推理成本不可预测的挑战。此举展示了将AI工作负载从可变运营成本转向确定性资本投资的架构选择。
Anthropic任命诺华CEO入董事会,强化AI治理与生命科学战略
Anthropic的长期利益信托任命诺华CEO Vas Narasimhan加入董事会。此举使信托任命的董事在董事会中占据多数,旨在强化公司治理,平衡商业成功与AI造福人类的公共使命。Narasimhan的加入凸显了Anthropic在高度监管的医疗健康领域深化AI应用的战略意图。