Reports
AI-generated structured vendor updates
NVIDIA 优化 Gemma 4 模型以加速本地代理 AI
NVIDIA 与 Google 合作优化 Gemma 4 系列模型,使其能够在从边缘设备到高性能 GPU 的各种 NVIDIA 硬件上高效运行。这些模型支持多种任务,包括推理、编码和代理功能,适用于本地代理 AI 应用。
Google为Gemini API推出Flex和Priority推理层级
Google在其Gemini API中新增Flex和Priority两个服务层级,允许开发者通过单一接口优化成本和可靠性。Flex针对延迟容忍型工作负载提供50%的成本节约,而Priority则为关键应用提供最高可靠性保障。这一变化简化了AI代理架构中同步和异步任务的管理。
Google发布Gemma 4开源模型系列
Google推出Gemma 4开源模型系列,包含四种规模变体,特别优化边缘计算和移动设备。该系列支持多模态处理、长上下文窗口和140多种语言,采用Apache 2.0许可。
思科推出AI就绪宽带解决方案应对边缘计算挑战
思科发布Agile Services Networking和Unified Edge平台,旨在帮助宽带服务提供商应对AI带来的带宽激增和低延迟需求。该方案通过在网络边缘部署计算和推理能力,减少核心网络负载,并支持智能流量优先级管理。
思科推动6GHz Wi-Fi作为AI基础设施核心
思科基于对6000名无线决策者的调研,提出6GHz频段是解决AI工作负载网络需求的关键,数据显示采用6GHz的企业AI部署率高出传统网络72%。该主张涉及网络架构升级和安全体系重构。
思科呼吁欧洲将6GHz频段作为AI战略无线基础设施核心
思科基于全球无线决策者调研数据,指出6GHz频段对欧洲AI部署的关键性,揭示当前仅19%企业采用Wi-Fi 6E/7但59%计划年内升级。报告强调美国因全6GHz接入获得的AI竞争优势,而欧洲受限于频谱政策面临智能城市发展瓶颈。
思科CCNP安全认证转向SSE与AI防御架构
思科更新CCNP Security认证体系,SCAZT v2.0考试将重点转向安全服务边缘(SSE)、零信任网络访问(ZTNA)和AI防护栏实施,反映云原生可观测性和AI集成应用安全的新要求。
思科推出验证式AI基础设施解决方案
思科发布经过验证的AI基础设施设计方案,通过与NVIDIA和红帽合作,提供预集成、测试的AI POD解决方案,旨在解决企业DIY AI基础设施时的兼容性和安全问题。该方案包含计算、网络、存储和AI软件的完整堆栈,并提供模块化扩展能力。
思科报告揭示无线投资与AI的乘数效应
思科发布首份全球无线状态报告,基于对6000多名决策者的调研显示,80%的企业在过去五年增加了无线投资,其中AI驱动的自动化平均每天为IT人员节省3小时20分钟。报告提出'无线AI悖论'概念,指出成功应对复杂性、安全性和人才挑战的企业获得4倍投资回报。
思科提出AgenticOps概念应对AI时代无线网络挑战
思科提出AgenticOps概念,旨在通过自主代理解决AI时代无线网络的复杂性、安全风险和人才缺口问题。该方案强调从传统自动化向机器速度自主运营的转变,并建议企业升级至Wi-Fi 7和6GHz频谱以支持AI工作负载。
思科提出无线AI基础设施四大支柱战略
思科基于其《2026年无线网络状态报告》提出解决无线AI悖论的四大支柱:构建Wi-Fi 7基础平台、实施AgenticOps自动化、整合ISE安全方案以及通过Networking Academy培养人才。该战略强调现代无线基础设施需同时满足AI性能需求与安全运维要求。
AWS与西门子能源深化合作推进数据中心能源解决方案
AWS宣布与西门子能源扩大战略合作,将AWS云服务和AI技术(包括Amazon Bedrock和SageMaker)应用于西门子能源的智能制造和工厂自动化。双方还将共同探索数据中心电力基础设施的创新方案,包括千兆瓦级发电和微电网技术。
思科Talos报告揭示身份攻击成为主要战场
思科Talos 2025年度报告显示,攻击者正以前所未有的速度利用身份相关攻击作为主要手段,同时老旧漏洞仍被广泛利用。报告强调身份控制已成为安全防御的核心挑战。
AMD 在 MLPerf 推理测试中取得突破性成绩
AMD 宣布其 Instinct MI300X 加速器在 MLPerf Inference 6.0 基准测试中表现优异,特别是在自然语言处理任务上创下新纪录。这表明 AMD 在 AI 推理基础设施领域的技术竞争力显著提升。
思科参与NIST生成式AI信任计划
思科宣布参与NIST生成式AI信任计划,重点开发可测量的AI信任评估框架。该计划包含动态对抗测试环境(Cat-and-Mouse框架)和代码生成挑战赛,旨在建立AI输出的可信度验证机制。
Cisco 披露 AI 编码助手内存污染攻击方法
Cisco 安全团队发现并验证了针对 Claude Code 等 AI 编码助手的持久性内存污染攻击方法,通过篡改 MEMORY.md 系统文件可长期操纵 AI 行为。该漏洞已促使 Anthropic 在 v2.1.50 版本中移除了用户记忆文件的系统提示权限。
思科通过服务即代码(SaC)实现金融网络合规自动化
思科披露其通过Services as Code(SaC)解决方案帮助意大利联合圣保罗银行实现DORA合规要求,采用基础设施即代码方法自动化管理8000台交换机配置,将实施时间缩短70%。该案例展示了网络设备大规模自动化配置管理的可行性。
英特尔在MLPerf推理测试中展示Xeon 6与Arc Pro GPU的AI性能
英特尔在MLPerf Inference v6.0基准测试中展示了其Xeon 6 CPU和Arc Pro B系列GPU的性能,特别是在处理大型语言模型(LLM)时的表现。测试结果显示,配备四块Arc Pro B70 GPU的系统能够处理120B参数的模型,并在多GPU设置中提供高达1.8倍的推理性能提升。
思科推出全栈后量子密码架构
思科在Cisco Live 2026上发布业界首个全栈后量子密码(PQC)架构,该方案采用NIST认证的量子抗性算法,覆盖从设备启动完整性到数据传输保护的全栈安全层。此举标志着二十年来最重要的密码学突破,旨在应对量子计算带来的'现在收集未来解密'威胁。
思科通过嵌入式可视性重构OT安全架构起点
思科在S4x26会议上展示其工业交换机原生集成Cyber Vision传感器,实现OT资产自动发现与基于IEC 62443的虚拟分段,将安全能力直接嵌入网络基础设施层。该方案无需额外硬件即可完成从可视性到策略执行的闭环,显著降低OT安全启动门槛。
思科通过统一可观测性平台实现预防性IT运维
思科IT部门通过整合Splunk、ThousandEyes和AppDynamics等工具,构建了统一的可观测性平台,将运维重点从MTTR转向事故预防。该平台利用AI技术实现数据关联分析,在过去18个月减少了25%的重大事故并提升45%的故障解决速度。
Google 推出 Gemini API Docs MCP 和 Agent Skills 提升编码代理性能
Google 推出了两项新工具:Gemini API Docs MCP 和 Agent Skills,旨在解决编码代理因训练数据截止日期而生成过时代码的问题。MCP 通过 Model Context Protocol 连接当前 Gemini API 文档,确保代理访问最新 API 和代码;Agent Skills 则提供最佳实践指导和资源链接。联合使用可将评估通过率提升至 96.3%,并减少 63% 的 token 消耗。
AWS与Flagship合作加速生命科学AI创新
AWS宣布与Flagship Pioneering达成战略合作,将成为Flagship旗下公司的首选云服务提供商,为其提供云计算资源、技术支持及AI能力,以加速药物发现和科学平台开发。Flagship的早期公司可获得AWS云积分、技术支持和市场资源,内部团队也将获得专业支持以增强其公司创建和扩展能力。
思科推出开源AI Agent安全解决方案DefenseClaw
思科发布开源安全解决方案DefenseClaw,针对OpenClaw AI Agent提供四大防护引擎,包括提示检查、工具检测、安装扫描和代码审查功能。该方案通过实操实验室展示如何防御恶意技能、不安全MCP服务器等11.9%已发现的威胁。
思科推出统一AI网络架构应对训练与推理流量冲突
思科提出统一AI网络架构解决方案,通过N9000系列交换机实现训练和推理流量的智能调度,解决传统双架构模式下的资源浪费问题。该方案包含硅级低延迟支持、实时遥测和自动化策略调整能力,瞄准新兴云服务商的平台化转型需求。
NVIDIA联合能源企业推进AI工厂与电网协同架构
NVIDIA与Emerald AI合作推出将AI工厂作为智能电网资产的新架构,整合加速计算、实时能源调度和参考设计,使大规模AI部署能动态响应电网需求。该方案基于Vera Rubin DSX参考设计和Conductor平台,已获多家能源企业支持实施。
Cisco 通过 Isovalent 推动云原生服务架构升级
Telefónica旗下acens采用Cisco的Isovalent Enterprise for Cilium解决方案,构建高性能、可观测且安全的Kubernetes平台,满足多云环境下的企业级需求。该方案基于eBPF技术,提供细粒度网络策略和透明加密,增强多租户环境的安全性。
OpenAI 融资1220亿美元加速全球AI基础设施建设
OpenAI宣布获得1220亿美元融资,将用于扩展全球前沿AI能力、投资下一代计算基础设施,并满足ChatGPT、Codex和企业级AI的快速增长需求。这笔创纪录融资将显著提升其AI训练集群和推理基础设施的建设规模。
Meta 将 AI 核心风险审查程序升级为跨公司计划
Meta 宣布将其产品隐私审查升级为以 AI 为核心的跨公司风险审查计划,通过自动化文档预填、开发阶段主动扫描及持续监控,实现更早识别风险并应用保障措施。该计划结合 AI 规模效率与人类专业判断,旨在构建默认自动化的合规文化。
NVIDIA 通过 NVLink Fusion 扩展 AI 生态系统
NVIDIA 宣布 Marvell 加入其 AI 生态系统,通过 NVLink Fusion 技术实现更高效的 AI 计算互连。这一合作将提升大规模 AI 训练和推理场景下的数据传输效率。