Reports
AI-generated structured vendor updates
AMD与Liquid AI探讨从芯片到系统的高效AI架构
AMD CTO与Liquid AI CEO探讨AI架构演进,强调效率是AI从云端向边缘和终端设备扩展的关键。双方认为,通过从芯片到系统的协同设计,可实现低功耗、高响应性的AI推理,支持持续运行的智能体与多模型协同。
AMD将边缘AI架构扩展至太空,定义轨道计算新范式
AMD CTO提出将地面边缘AI的“性能功耗比”与“任务关键可靠性”核心原则,应用于太空计算场景。公司正通过异构计算、开放软件栈和模块化系统设计,为从卫星在轨智能到未来轨道数据中心提供可重复构建的平台基础。
AMD发布IDC白皮书,强调AI PC是企业部署Agentic AI的关键基础设施
AMD发布IDC白皮书,指出超过80%的企业正在规划、试点或部署AI PC,以支持Agentic AI的规模化应用。报告强调,高性能NPU和端侧AI处理对于实现实时、安全的工作流至关重要,标志着企业AI基础设施正从云端向端侧扩展。
Cloudflare扩展Agent Cloud,为下一代AI Agent构建基础设施平台
Cloudflare宣布扩展其Agent Cloud平台,推出动态Workers、Git兼容存储、沙盒环境及持久化框架,旨在为大规模、长周期运行的AI Agent提供安全、高效且可负担的基础设施。此举标志着Cloudflare正从边缘网络服务商向AI原生应用基础设施提供商转型。
AMD发布突破性MLPerf 6.0推理结果,展示多节点扩展与多模态能力
AMD在MLPerf Inference 6.0基准测试中,凭借Instinct MI355X GPU在Llama 2 70B和GPT-OSS-120B模型上首次突破每秒100万令牌的推理吞吐量。其提交强调了多节点扩展效率、对新型文本到视频模型(Wan-2.2-t2v)的快速启用,以及广泛的合作伙伴生态系统复现结果。
谷歌推出Gemini API Docs MCP与Agent Skills优化AI编码代理
谷歌发布Gemini API Docs MCP协议和Agent Skills工具集,通过实时连接最新API文档与注入最佳实践指令,解决AI编码代理的过时代码问题。测试显示组合使用可使通过率提升至96.3%,同时降低63%的token消耗。
Google 推出 Gemini API Docs MCP 和 Agent Skills 提升编码代理性能
Google 推出了两项新工具:Gemini API Docs MCP 和 Agent Skills,旨在解决编码代理因训练数据截止日期而生成过时代码的问题。MCP 通过 Model Context Protocol 连接当前 Gemini API 文档,确保代理访问最新 API 和代码;Agent Skills 则提供最佳实践指导和资源链接。联合使用可将评估通过率提升至 96.3%,并减少 63% 的 token 消耗。
AMD与NAVER Cloud合作推进韩国主权AI基础设施建设
AMD与韩国NAVER Cloud宣布深化战略合作,旨在加速韩国主权AI基础设施建设。NAVER Cloud将扩大部署AMD EPYC“威尼斯”处理器,并获得下一代Instinct MI455X GPU的早期访问权限,双方将共同优化AI服务与软件栈。
AMD与三星深化合作,锁定HBM4供应并探索代工
AMD与三星签署谅解备忘录,将三星作为下一代Instinct MI455X GPU的HBM4主要供应商,并合作优化用于第六代EPYC CPU的DDR5内存。双方还将探讨三星为AMD提供先进制程代工服务的可能性。
Cloudflare威胁报告揭示攻击模式从暴力入侵转向身份渗透
Cloudflare发布2026年威胁情报报告,核心观点是攻击者正从‘破门而入’转向‘登堂入室’,利用AI、供应链攻击和身份欺诈等手段,使得安全防御重心需从边界防护转向内部身份验证与实时威胁情报。
高通与Snap深化合作,押注XR设备作为AI智能计算新终端
高通与Snap子公司Specs Inc.签署多年期战略协议,将基于骁龙XR平台为未来的Specs智能眼镜提供算力支持。该合作旨在构建一个可扩展的基础平台,以支持开发者在眼镜上创建更智能、更私密的本地AI体验。此举标志着两家公司正将长期合作关系从消费级AR眼镜,向一个更强调设备端智能代理和沉浸式计算体验的平台演进。