Reports
AI-generated structured vendor updates
Palo Alto推出Unit 42 Frontier AI Defense:前沿AI防御三支柱方案
Palo Alto推出Unit 42 Frontier AI Defense服务,三大核心组件:前沿AI暴露分析、自主安全蓝图、自主防御转型。
Claude Mythos:最强AI模型限制发布
Anthropic发布Claude Mythos,在多项基准测试中超越现有模型,但因安全风险过高决定不公开上市,仅向约50家关键基础设施合作伙伴提供防御性使用。
NVIDIA发布全球首个开源量子AI模型Ising
NVIDIA发布全球首个开源量子AI模型家族Ising,包含校准模型(350亿参数VLM)和解码模型(3D CNN),性能超越行业标准2.5-3倍,校准时间从数天缩短到数小时。黄仁勋称AI成为量子机器操作系统。IonQ、Harvard、Fermi Lab等机构已采用,量子股票大涨18%。
Anthropic因拒供AI武器化技术被美国防部列为供应链风险
Anthropic公开声明,因拒绝授权其AI模型Claude用于大规模国内监控和全自主武器两项军事用途,美国战争部拟将其列为供应链风险。此举可能限制国防承包商在特定合同中使用Claude,但Anthropic表示将诉诸法律挑战。
Anthropic与Mozilla合作,AI模型可独立发现Firefox高危漏洞
Anthropic宣布其Claude Opus 4.6模型在两周内为Mozilla Firefox发现了22个漏洞,其中14个被定为高危。这标志着AI模型已能独立识别复杂软件中的未知安全漏洞,并初步尝试生成漏洞利用,预示AI在网络安全攻防两端的能力均进入新阶段。
微软预警AI威胁面扩大,攻击从工具演变为攻击面
微软安全高层发文指出,威胁行为者对AI的滥用正从辅助工具加速演变为一个独立的网络攻击面。这标志着攻击者开始系统性利用AI模型本身作为攻击媒介,而不仅仅是使用AI增强传统攻击。
AWS与TGS达成战略合作,推动能源行业AI与HPC转型
TGS选择AWS作为首选云提供商,利用AWS的高性能计算和生成式AI构建能源勘探解决方案。合作包括现代化TGS Imaging AnyWare平台,部署多模态地下基础模型,并利用AWS Nitro系统确保工作负载安全。
思科推出统一边缘平台推动医疗AI本地推理合规部署
思科推出Unified Edge统一边缘平台,支持医疗AI模型在数据源端进行本地推理,确保数据驻留临床环境内。该平台提供集中治理能力,实现低延迟诊断与合规要求平衡。合作伙伴案例显示可将心脏MRI分析时间从1小时缩短至10分钟。
OpenAI发布Model Spec框架,公开AI行为准则
OpenAI发布Model Spec框架,公开AI模型行为规则,旨在平衡有益性、安全性和用户自主权。该框架文档化并开放于GitHub,促进AI行为准则的标准化讨论。
思科发布LLM安全排行榜,推动模型安全标准化评估
思科推出大语言模型安全排行榜,基于单轮和多轮攻击测试提供客观安全排名。该工具采用标准化评估框架,映射攻击数据至思科AI安全分类法,公开排名和方法论。旨在为企业AI部署前提供安全风险评估,填补模型安全基准测试空白。
思科扩展零信任至AI代理并推出AI防御工具
思科将零信任访问扩展至AI代理身份管理,通过Duo IAM和Secure Access SSE实现细粒度控制。推出AI Defense Explorer自助工具进行红队测试和安全验证,并开源DefenseClaw框架集成NVIDIA沙箱。Splunk SOC引入AI代理功能转向自动化运营。
Palo Alto Networks 推出 AI 原生安全平台 Prisma AIRS
Palo Alto Networks 发布 Prisma AIRS,该平台采用 AI 原生安全设计,将安全能力嵌入 AI 应用生命周期,提供模型、数据流和提示的运行时保护。平台旨在解决 AI 特有风险,如提示注入和模型滥用,标志着安全范式从事后补救转向原生内置。
爱立信将AI集成至物理层接收算法提升频谱效率
爱立信发布AI赋能的接收器技术,通过AI模型实时估计和补偿无线信道损伤,在恶劣无线电条件下将频谱效率提升高达50%。该技术已集成至爱立信无线系统产品组合,计划2026年部署。
Evri基于AWS Bedrock部署AI合规检查系统
Evri采用Amazon Nova Lite模型构建Veri Snap AI解决方案,每月处理9000万张投递照片实现自动化合规评估。该系统通过识别包裹位置与状态提升首次投递成功率,已完成2000万张照片的试点验证。
思科发布AI安全事件响应架构,揭示传统安全模型失效
思科提出四层AI安全防御架构,涵盖预防、检测、遏制和韧性层,强调AI安全事件响应需关注行为监控而非静态数据。架构包括训练数据治理、AI安全态势管理、运行时护栏和数据溯源基础设施。思科调查显示仅13%企业完全做好AI安全准备。
NVIDIA推出GRT平台整合机器人AI全栈开发
NVIDIA发布GRT通用机器人技术平台,集成Eureka、VIMA、Octo等多模态AI模型,通过Isaac Lab仿真环境加速机器人强化学习训练。该平台实现从仿真到物理部署的全链路开发,推动机器人开发从传统编码转向AI模型驱动范式。
思科推出AI技术从业者认证,瞄准AI技能生态建设
思科发布AI技术从业者认证,包含生成式AI模型、提示词工程、AI伦理安全等模块,基于实际业务场景设计。该认证通过免费学习路径至2026年,旨在提升网络工程师的AI技能以应对职业替代风险。
三星与AMD深化AI硬件合作,提供HBM4内存与代工服务
三星将成为AMD下一代MI455X GPU的HBM4主要供应商,提供13Gbps带宽的高性能内存。双方还将合作开发针对第6代EPYC CPU的DDR5解决方案,并探讨三星为AMD提供代工服务的机会。
NVIDIA发布开放物理AI数据工厂蓝图
NVIDIA推出开放物理AI数据工厂蓝图,提供标准化数据生成与合成框架,加速机器人、视觉AI和自动驾驶等物理AI应用的训练和开发。该蓝图通过参考架构解决大规模真实数据获取难题,降低行业门槛并推动研发迭代。
NVIDIA量产Dynamo 1.0推理操作系统,强化AI工厂软件平台战略
NVIDIA开始量产AI推理操作系统Dynamo 1.0,提供统一软件层协调跨数据中心、云和边缘的AI推理工作负载。该系统通过标准化运行时和调度器简化大规模AI模型部署,将基础设施管理抽象化。
Adobe与NVIDIA战略合作优化AI PC端创意工作流
Adobe与NVIDIA达成战略合作,共同开发下一代Firefly生成式AI模型,并针对NVIDIA RTX AI PC进行性能优化。合作重点是将AI能力深度集成到Creative Cloud、Experience Cloud等核心产品工作流中,加速创意营销和智能体流程。
NVIDIA联合T-Mobile在AI-RAN基础设施集成物理AI应用
NVIDIA与T-Mobile及合作伙伴宣布在AI-RAN就绪基础设施上集成物理AI应用,推动AI模型直接与物理世界交互。该技术聚焦无线接入网领域,实现网络优化和自动化运维,为5G及未来网络提供智能底层支持。
英伟达发布AI工厂参考设计与数字孪生蓝图
英伟达发布Vera Rubin DSX AI工厂参考设计与Omniverse DSX数字孪生蓝图,基于Spectrum-X以太网、Quantum-X800 InfiniBand和BlueField-3 DPU构建。该架构连接现实传感器与数字孪生,实现AI模型持续训练优化。此举将AI计算从数据中心扩展至物理世界自动化领域。
高通发布集成专用AI引擎的可穿戴平台
高通推出Snapdragon Wear Elite平台,集成专用AI引擎以提升可穿戴设备的AI性能与能效。该平台针对智能手表和健康追踪设备优化,支持运行更复杂的AI应用。
高通与Wayve合作推进端到端AI驾驶模型量产化
高通与Wayve合作将其端到端AI自动驾驶模型LINGO-2集成至高通Snapdragon Ride平台,旨在将感知、决策和规划功能融合为单一神经网络模型。该合作聚焦于满足汽车行业的性能、安全与成本要求,推动端到端AI架构从研发向车规级量产迈进。
Google AI 推出人口健康AI模型PHAI
Google推出人口健康人工智能(PHAI)模型,整合多源数据实现社区级健康风险预测。该技术通过去标识化临床记录和地理因素分析,为乡村地区提供定制化干预方案。合作方计划进行大规模健康筛查,推动从治疗向预防的转变。
NVIDIA与Thinking Machines Lab达成千兆瓦级AI基础设施合作
NVIDIA与Thinking Machines Lab宣布部署至少一千兆瓦的下一代Vera Rubin系统,用于前沿AI模型训练。该合作体现了超大规模AI算力需求的新标杆,标志着AI基础设施向千兆瓦级部署迈进。
OpenAI提出AI智能体架构级防御方案应对提示注入攻击
OpenAI发布技术方案,通过在AI智能体工作流中实施行动约束和数据保护机制,系统性防御提示注入攻击。该方案涉及限制API访问和隔离敏感数据,代表从被动过滤转向主动安全架构设计。
Wayfair 应用 OpenAI 模型于后端运营自动化与产品数据治理
Wayfair 正利用 OpenAI 的模型技术,自动化处理客户支持工单分流并大规模增强数百万条产品属性。此举旨在提升客户支持效率和产品目录的精确性,展示了大型语言模型在企业后端运营自动化和核心数据治理场景的实际落地。
英伟达Jetson平台推进边缘AI开源模型本地化部署
英伟达通过Jetson边缘AI平台实现开源生成式AI模型的本地化部署,支持包括Qwen3 4B和Mistral 3在内的多种模型在边缘设备运行。平台提供从Jetson Orin Nano到Thor的完整硬件选项,集成计算与内存于SoM以简化设计。关键性能指标显示,Jetson Thor可实现52 tokens/秒的Mistral 3推理速度。