A
AMD
2026-05-12
Architecture Shift 影响: Important 强度: High 置信: 85%

AMD定义AI网络概念并推出专用AI NIC

内容摘要

AMD发布博客,系统性地定义了“AI网络”概念,强调其为满足分布式AI工作负载同步需求而构建的专用网络解决方案。核心是推出Pensando Pollara 400 AI NIC,通过智能流量控制、低延迟数据移动和可编程结构服务,优化GPU集群间通信。此举旨在将网络提升为与计算同等关键的基础设施层。

核心要点

AMD将“AI网络”定义为一种为分布式AI工作负载(训练、推理、实时系统)量身定制的网络解决方案,其核心挑战是解决GPU集群间高同步、高压力东西向流量带来的延迟和拥塞问题。

博客重点介绍了其Pensando Pollara 400 AI NIC,该产品具备路径感知拥塞控制、选择性重传、有序消息传递和快速故障恢复等特性,旨在将智能和决策能力分布到网络结构中,以维持大规模集群的稳定性和GPU利用率。

AMD强调其整体战略基于开放标准和平台灵活性,AI网络是其中一环,旨在避免供应商锁定,并支持从紧耦合(Scale-up)到大规模扩展(Scale-out)的各种AI架构。

重要性说明

【控制层转移型】AMD正试图将网络控制层从通用数据平面重新定义为AI感知的智能平面。这标志着基础设施厂商正竞相在AI工作负载的“通信控制点”上建立新标准,以应对GPU集群规模扩大带来的性能瓶颈。

PRO 决策建议

**厂商/Vendors**: 评估在AI NIC/DPU层嵌入智能的机会,若不参与此层竞争,可能在未来AI基础设施栈中失去相关性。
**企业/Enterprises**: 重新思考AI集群的网络架构,评估传统网络在GPU同步通信上的瓶颈,为部署AI优化网络(如智能NIC)规划试点。
**投资者/Investors**: 关注价值从纯计算芯片向智能网络和通信芯片的迁移,监测NVIDIA、Intel、博通等厂商在AI网络层的类似动作。
来源: blog
查看原文 →

💬 评论 (0)