Reports
AI-generated structured vendor updates
英伟达以OpenUSD和Omniverse为核心,推动制造业进入“仿真优先”时代
英伟达通过SimReady标准、Omniverse物理仿真库及Metropolis蓝图,构建了完整的物理AI技术栈,旨在将制造业传统的“设计-制造-测试”循环转变为基于高保真仿真的“仿真优先”范式。该架构使AI模型训练和系统验证在虚拟环境中完成,大幅缩短产品周期并降低成本。
Arm发布Performix性能分析工具包,瞄准AI Agent时代优化
Arm发布免费性能分析工具包Performix,旨在为AI Agent开发提供跨Arm平台的统一性能洞察与优化。该工具通过Arm MCP Server集成至主流AI开发环境,将硬件运行时数据转化为可操作的优化建议,并已获得微软、MongoDB等生态伙伴支持。
Meta与AWS达成Graviton合作:数千万核心驱动Agentic AI
Meta与AWS达成战略合作,部署数千万颗Graviton5核心,成为全球最大的Graviton客户之一。
Meta与AWS达成Graviton合作:数千万核心驱动Agentic AI
Meta与AWS达成战略合作,将引入数千万颗Graviton5核心到其计算组合,成为全球最大的Graviton客户之一。Graviton5专为Agentic AI的CPU密集型工作负载设计,提供更快的数据处理和更大带宽。首期部署数千万核心,具备灵活扩展能力。
微软在澳大利亚进行250亿澳元AI与云基础设施投资
微软宣布在澳大利亚进行其史上最大规模投资,总额达250亿澳元,旨在扩大AI和云计算基础设施容量、加强网络安全,并提升全国范围内的数字技能。此举旨在将澳大利亚定位为亚太地区的AI中心。
NVIDIA与Google Cloud深化合作,构建面向AI工厂与物理AI的云基础设施
NVIDIA与Google Cloud宣布合作升级,推出基于Vera Rubin和Blackwell GPU的新实例,旨在构建支持近百万GPU集群的“AI工厂”,并整合Gemini、Nemotron等模型平台,加速从智能体到物理AI(如机器人、数字孪生)的生产级部署。
思科发布AI Agent安全扫描器,将安全控制点前移至IDE
思科发布针对集成开发环境(IDE)的AI Agent安全扫描器扩展,旨在识别和防范AI开发工具链中的新攻击面。该工具通过静态扫描MCP服务器配置、Agent技能定义,并结合代码生成时安全规则引导和运行时文件完整性监控,为开发者提供本地化、多层次的AI Agent安全防护。
思科通过工业无线与车载交换机融合,将安全控制平面延伸至AGV
思科通过其超可靠无线回传与工业以太网交换机,为E80集团的自动导引车提供确定性连接与嵌入式安全。该方案将网络可见性与策略执行点从工厂固定网络延伸至移动资产,实现了OT安全与连接性的原生融合。
思科携手英伟达,将网络升级为AI媒体处理的控制平面
思科与英伟达深化合作,推出基于开放标准MXL的验证设计方案。该方案将思科IP媒体架构与英伟达Holoscan平台整合,使网络从传输层演变为支持实时AI推理的主动处理层,为广电行业实现低延迟、多语言的实时AI媒体生产。
Meta Muse Spark:从开源到专有的战略转身
Meta 发布首个专有大模型 Muse Spark,由前 Scale AI CEO Alexandr Wang 主导,代号 Avocado,替代 Llama 成新战略核心。发布当日股价涨 6.5%;Llama 4 未达预期后 9 个月完成技术栈重建;2025 年资本开支超 720 亿美元。
Meta 与 Arm 合作开发数据中心定制芯片
Meta 与 Arm 合作开发专为数据中心和大规模 AI 部署设计的定制 CPU。此前报道显示 Arm 联合 Meta 推出 136 核 AGI CPU,芯片自主化浪潮从云厂商扩展到全栈玩家,Arm 生态持续扩张。
Meta与Broadcom达成多年2nm AI芯片合作,初始部署超1GW
Meta与Broadcom宣布多年多代战略合作,共同开发MTIA(Meta Training and Inference Accelerator)芯片,合作延续至2029年。首批部署超过1GW,后续扩展至数吉瓦级别。这是业界首个2nm工艺AI计算加速器,基于Broadcom XPU平台深度定制。Meta已规划MTIA 300/400/450/500四个迭代版本,主要用于推荐算法、内容排序和大规模AI推理。Broadcom CEO陈福阳将退出Meta董事会以规避利益关联,转为战略顾问。
思科分享企业AI助手实战模式,强调确定性安全与引导式交互
思科基于其客户体验部门AI助手的18个月实战经验,提炼出决定企业AI系统成败的非显性模式。核心包括:通过确定性代码而非LLM提示词执行RBAC、主动解决企业术语歧义、减少澄清式交互以提升效率,以及基于系统能力提供引导式后续问题。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
思科在MWC部署统一SOC/NOC平台,凸显数据层融合与边缘工程价值
思科在MWC 2026期间,以Splunk Cloud为核心平台,整合了包括Secure Access、XDR、Firewall 6160、Meraki在内的多源遥测数据,快速构建了统一的SOC与NOC运营视图。该案例展示了在复杂、高流量环境中,通过精心设计的边缘数据管道(RSYSLOG + Splunk Heavy Forwarder)保障数据可靠摄入,并实现网络与安全事件快速关联分析。
思科发布Firepower 6100,通过融合检测引擎应对影子流量威胁
思科在MWC 2026现场网络部署了新款Firepower 6100防火墙,并验证了其10.0软件版本中的影子流量检测功能。该功能通过整合应用识别、加密流量可视化和TLS/QUIC解密三大引擎,旨在自动化识别并标记试图绕过传统安全策略的隐蔽连接。
谷歌在Colab推出“学习模式”,将AI编程助手转向教学引导
Google Colab为集成的Gemini AI助手推出两项新功能:“自定义指令”和“学习模式”。前者允许用户按项目或教学大纲定制助手行为并分享,后者将AI从直接生成代码转变为分步引导的教学导师,旨在提升用户编程技能。
Meta发布Muse Spark基础模型并重构AI助手架构
Meta推出其Superintelligence Labs的首个模型Muse Spark,并以此为核心全面升级Meta AI助手。新架构支持并行子代理(subagents)协同推理、强大的多模态感知能力,并能调用社交图谱内容提供个性化答案。
英特尔与SambaNova联合发布面向Agentic AI的异构推理架构
英特尔与SambaNova宣布合作,为Agentic AI生产负载设计异构计算蓝图。该方案结合GPU、SambaNova RDU和英特尔至强6处理器,旨在解决性能、效率与软件兼容性挑战,预计2026年下半年推出。
谷歌将NotebookLM深度集成至Gemini,推出个人知识库功能
谷歌在Gemini应用中引入“笔记本”功能,与NotebookLM深度同步,旨在将AI对话、项目文件与个人知识库整合。此举将AI助手从单次交互工具,转变为支持长期、复杂项目的结构化知识管理平台。
微软与阳狮集团深化合作,构建基于身份数据的AI代理营销堆栈
微软与阳狮集团宣布扩展战略合作,共同构建端到端营销解决方案。该方案旨在整合遗留系统、AI代理与阳狮旗下Epsilon的身份数据,通过Microsoft Fabric、Copilot Studio和Agent 365等技术,实现营销流程的自动化与优化。
Google将Android XR引入企业市场,支持EMM统一管理
Google在Android XR更新中宣布支持Android Enterprise,并与多家主流EMM厂商合作,使XR头显可被企业统一部署和管理,用于沉浸式培训与协作。此举标志着消费级XR平台正式向企业IT环境渗透。
微软将AI安全能力整合至开发与响应流程,并引入Foundry平台
微软安全响应中心(MSRC)正利用AI(如Anthropic的Claude Mythos Preview)规模化加速漏洞发现与修复,并将相关能力嵌入其内部开发流程和Azure Foundry平台。此举标志着微软将AI安全能力从内部工具向平台化服务演进。
微软联合日本本土运营商构建主权AI基础设施
微软宣布未来四年在日投资100亿美元,核心是与日本樱花互联网和软银合作,通过Azure提供由本土运营商管理的GPU算力服务,确保数据驻留日本。此举旨在满足日本对数据主权和合规性要求严格的AI工作负载需求。
NVIDIA推动物理AI在机器人领域的技术整合
NVIDIA在机器人周展示物理AI技术突破,通过Isaac Sim模拟平台和Jetson Orin边缘模块加速农业机器人部署。案例显示Aigen利用合成数据训练和开放世界基础模型,实现太阳能机器人精准除草,降低90%除草剂依赖。
谷歌为Gemini API引入Flex与Priority推理层级
谷歌为其Gemini API新增Flex和Priority两个服务层级。Flex是成本优化层级,为延迟容忍型工作负载提供同步接口,价格降低50%;Priority为高可靠性层级,确保关键应用在高峰期的请求不被抢占。此举旨在通过单一界面,让开发者根据AI任务类型(如后台Agent思考与前台交互)灵活平衡成本与可靠性。
谷歌发布Gemma 4开源模型,瞄准边缘推理与AI代理架构
谷歌推出Gemma 4开源模型家族,包含从2B到31B的四个版本,强调单位参数性能突破,并原生支持AI代理工作流、多模态与长上下文。其小参数模型专为边缘设备优化,旨在将前沿推理能力扩展至移动与IoT场景。
微软预警AI威胁面扩大,攻击从工具演变为攻击面
微软安全高层发文指出,威胁行为者对AI的滥用正从辅助工具加速演变为一个独立的网络攻击面。这标志着攻击者开始系统性利用AI模型本身作为攻击媒介,而不仅仅是使用AI增强传统攻击。
Google为Gemini API推出Flex和Priority推理层级
Google在其Gemini API中新增Flex和Priority两个服务层级,允许开发者通过单一接口优化成本和可靠性。Flex针对延迟容忍型工作负载提供50%的成本节约,而Priority则为关键应用提供最高可靠性保障。这一变化简化了AI代理架构中同步和异步任务的管理。
Google发布Gemma 4开源模型系列
Google推出Gemma 4开源模型系列,包含四种规模变体,特别优化边缘计算和移动设备。该系列支持多模态处理、长上下文窗口和140多种语言,采用Apache 2.0许可。