Reports
AI-generated structured vendor updates
Intel Q1验证CPU/GPU 1:4配比趋势:Xeon 6如何改变AI推理基础设施的TCO计算
Intel Q1验证CPU:GPU配比从1:8回升至1:4,Xeon 6成为NVIDIA DGX-Rubin CPU,AMX指令集使CPU可在推理场景替代入门级GPU,单节点TCO降低40-60%
亚马逊50亿美元加注Anthropic,AI军备竞赛再升级
亚马逊向Anthropic追加50亿美元投资,并签署10年1000亿美元云服务协议。Claude模型将成为AWS Bedrock核心,直接挑战微软-OpenAI联盟。
美国AI基础设施扩张遇冷:16GW产能30%-50%延期
美国今年规划新增约16吉瓦数据中心容量,预计30%-50%面临延期或取消,真正动工仅约5吉瓦。电力、供应链、人力三重瓶颈压制AI基础设施落地。
思科宣布收购意图,强化AI可观测性与可信度布局
思科宣布有意收购专注于AI可观测性的初创公司Galileo。此举旨在将AI系统的可观测性、可靠性和安全性深度集成到其技术平台,标志着思科正从通用IT可观测性向AI基础设施的专项可信保障层扩展。
英特尔与谷歌深化合作,共推CPU与IPU异构AI基础设施
英特尔与谷歌宣布多年期合作,旨在通过多代至强处理器和联合开发定制IPU,共同推进下一代AI与云基础设施。此举强化了CPU在AI系统编排与数据处理中的核心作用,以及IPU在卸载网络、存储任务以提升超大规模AI环境效率的关键价值。
思科将自有零售店作为统一数据与AI基础设施的试验场
思科通过其品牌零售店,将Splunk作为统一数据平台,整合Meraki传感器、POS、视频分析等多源数据流,实现从被动监控到预测性智能的转变。此举旨在验证其技术栈在物理零售环境中的融合能力,并为未来部署AI驱动的交互式体验和Wi-Fi 7等新技术铺路。
微软联合日本本土运营商构建主权AI基础设施
微软宣布未来四年在日投资100亿美元,核心是与日本樱花互联网和软银合作,通过Azure提供由本土运营商管理的GPU算力服务,确保数据驻留日本。此举旨在满足日本对数据主权和合规性要求严格的AI工作负载需求。
思科推动6GHz Wi-Fi作为AI基础设施核心
思科基于对6000名无线决策者的调研,提出6GHz频段是解决AI工作负载网络需求的关键,数据显示采用6GHz的企业AI部署率高出传统网络72%。该主张涉及网络架构升级和安全体系重构。
思科推出验证式AI基础设施解决方案
思科发布经过验证的AI基础设施设计方案,通过与NVIDIA和红帽合作,提供预集成、测试的AI POD解决方案,旨在解决企业DIY AI基础设施时的兼容性和安全问题。该方案包含计算、网络、存储和AI软件的完整堆栈,并提供模块化扩展能力。
思科提出无线AI基础设施四大支柱战略
思科基于其《2026年无线网络状态报告》提出解决无线AI悖论的四大支柱:构建Wi-Fi 7基础平台、实施AgenticOps自动化、整合ISE安全方案以及通过Networking Academy培养人才。该战略强调现代无线基础设施需同时满足AI性能需求与安全运维要求。
ARM推出自研AGI CPU芯片,扩展AI基础设施布局
ARM首次推出自研AGI CPU芯片,突破传统IP授权模式,提供从定制化芯片到完整平台解决方案的全栈能力。此举将重构AI基础设施供应链控制权,推动企业从硬件层优化AI工作负载部署效率。
OpenAI 融资1220亿美元加速全球AI基础设施建设
OpenAI宣布获得1220亿美元融资,将用于扩展全球前沿AI能力、投资下一代计算基础设施,并满足ChatGPT、Codex和企业级AI的快速增长需求。这笔创纪录融资将显著提升其AI训练集群和推理基础设施的建设规模。
三星在消费级微波炉市场强调智能连接与远程控制,但其技术重心未涉及企业级AI基础设施或网络架构核心演进。
三星电子宣布连续11年保持欧洲微波炉市场销量第一,并强调其产品通过SmartThings平台和Bixby语音助手提供远程监控与语音控制等智能连接功能,旨在提升厨房便利性。
思科推出Nexus Hyperfabric AI方案,集成800G交换机与HGX B300 GPU
思科发布Nexus Hyperfabric AI基础设施方案,整合800G以太网交换机和NVIDIA HGX B300 GPU,提供全栈预集成或灵活的'自带'模式。该方案符合NVIDIA Cloud Partner计划,旨在简化AI基础设施部署与运维。
思科联合英伟达验证私有AI基础设施快速微调能力
思科IT与英伟达合作,基于Nemotron RAG配方在单颗H200 GPU上实现2-5小时端到端嵌入模型微调。该方案通过120B参数本地LLM生成合成数据,无需人工标注,使NDCG@1指标提升7.3个绝对点。验证了企业私有AI基础设施快速优化领域知识检索的技术路径。
Arm推出数据中心芯片产品进军服务器硬件市场
Arm发布首款面向数据中心的硅产品Arm AGI CPU,采用1OU双节点参考服务器设计。这标志着Arm从IP授权商向完整服务器硬件参考设计提供商的战略转型,旨在为智能体AI云提供芯片基础。
Arm推出自研AGI CPU进军AI数据中心硬件市场
Arm首次推出自研硅产品AGI CPU,专为AI数据中心设计,采用Neoverse V3架构,单机架性能宣称超x86平台2倍以上。该产品标志着Arm从IP授权商向硅产品供应商的战略转型,已获得Meta、OpenAI等关键客户支持。
Meta与Arm合作开发AI专用数据中心CPU
Meta宣布与Arm共同开发专为AI工作负载设计的数据中心CPU Arm AGI,该CPU旨在显著提升性能密度和能效。Meta将作为主导合作伙伴,计划通过开放计算项目公开硬件设计,并与自研MTIA芯片协同工作。
ARM推出AGI CPU:AI Agent时代的硅基础
ARM宣布推出Arm AGI CPU,这是其首款自有硅产品,基于Neoverse平台,专为agentic AI时代设计。该CPU优化大规模并行工作负载,在1OU配置中支持272核心/刀片,全机架达8160核心,性能比x86系统提高两倍以上,提升AI基础设施效率。
ARM推出AGI CPU芯片,进军AI基础设施市场
ARM于2026年3月推出首款自研AGI CPU生产级芯片,标志着从IP授权模式向完整硅解决方案提供商的战略转型。该芯片专为下一代AI基础设施设计,可能重塑数据中心处理器生态格局。
ARM Neoverse重塑AI基础设施控制层
ARM推出Neoverse系列基础设施CPU核心,专为云计算、AI和高性能计算优化,被NVIDIA、AWS、Microsoft和Google等厂商采用于其AI平台,实现性能提升和能效改进。该架构推动AI工作负载在云和边缘的高密度部署,强化安全多租户支持。
思科报告揭示EOL设备漏洞威胁与AI基础设施关联
思科Talos报告显示2025年近40%高威胁漏洞针对已停产设备,政策推动强制淘汰EOL设备。该趋势将基础设施现代化与AI安全部署直接关联,为企业网络更新提供合规依据。
思科与Digital Realty推出统一AI基础设施方案
思科与Digital Realty合作推出预验证的AI基础设施参考架构,整合8000系列路由器、SRv6网络技术和AI安全方案,支持20-50kW高密度POD部署。该方案通过Digital Realty的全球数据中心平台提供分布式AI推理能力,旨在简化企业AI规模化部署。
NVIDIA定义柔性AI工厂为可调度电网资产
NVIDIA联合能源公司推出柔性AI工厂概念,通过AI平台实现计算负载与电网需求动态协调。该方案使AI数据中心从能源消费者转变为具备电网支持能力的产消者,通过软件定义和AI优化提升能源系统韧性。
Check Point发布AI工厂安全蓝图 覆盖GPU至LLM全栈防护
Check Point推出AI工厂安全架构蓝图,建立从GPU硬件层到LLM提示层的全栈防护体系,通过零信任框架实现AI基础设施纵深防御。
英伟达CEO阐述加速计算范式,预示AI基础设施架构演进
英伟达CEO黄仁勋接受专访,系统阐述加速计算作为计算机架构根本性转变的理念。他强调数据中心正从通用CPU转向由GPU主导的专用加速平台,并认为未来的计算堆栈将围绕加速计算进行重构。
NVIDIA阐述加速计算三阶段演进与软件定义数据中心战略
NVIDIA CEO黄仁勋提出加速计算三阶段演进模型,从单一GPU加速发展到全栈加速,最终进入软件定义、AI驱动的数据中心阶段。公司强调通过软件定义基础设施实现动态资源分配,并重申从芯片到应用的全栈AI解决方案战略。
AMD与Celestica合作推出机架级AI平台Helios
AMD与电子制造服务商Celestica合作推出Helios机架级AI平台,集成Instinct加速器和EPYC处理器,提供从芯片到机架级的整体优化。该平台针对AI训练和推理任务进行性能与能效优化,旨在满足数据中心和云服务提供商的AI算力需求。
AMD与Upstage合作推出基于MI325X的主权AI基础设施方案
AMD与韩国AI公司Upstage深化合作,基于Instinct MI325X加速器构建主权AI基础设施解决方案。通过优化ROCm软件栈实现Solar LLM与硬件平台深度集成,提升AI训练和推理效率。该方案针对韩国市场数据主权要求提供本地化AI算力。
Parrot Analytics 部署 Amazon Bedrock AgentCore 实现高吞吐代理编排
Parrot Analytics 集成 Amazon Bedrock AgentCore 和 Amazon Nova 模型,实现 25 TPS 持续代理调用吞吐,构建媒体行业智能操作系统。通过专有数据与 AWS AI 基础设施结合,支持批量 AI 工作负载编排。该架构旨在推动媒体行业从回顾性测量转向预测性资本分配。