UALink 1.0发布:引领GPU互连新时代,实现高性能低功耗

AI快讯1周前发布 niko
4 0
AiPPT - 一键生成ppt

打破Nvidia NVLINK技术垄断,UALink联盟带来新希望

2024年5月,AMD、AWS等众多供应商联合成立了UALink联盟,旨在打造NvidiaNVLink技术的开放替代方案,以创建运行大规模AI工作负载所需的联网GPU集群。如今,该联盟推出的首个标准版本——UALink 1.0正式亮相。

UALink 1.0的卓越性能与创新特性

据官方介绍,名为UALink 200G1.0的规范,定义了AI计算舱中加速器和交换机之间通信的低延迟、高带宽互连。它支持AI计算舱内最多1024个加速器实现每通道200G的扩展连接,为下一代AI集群性能提供开放标准互连。UALink1.0还为加速器创建了交换机生态系统,通过读取、写入和原子事务实现跨系统节点的加速器到加速器通信,并定义了一组协议和接口,为AI应用程序创建多节点系统。

显著优势助力行业发展

UALink具有诸多显著优势。在高性能方面,能为舱内数百个加速器提供低延迟、高带宽互连,拥有简单加载/存储协议,具备与以太网相同的原始速度和PCIe交换机的延迟,还专为实现93%有效峰值带宽的确定性性能而设计。低功耗方面,实现了高效的开关设计,降低了功耗和复杂性。成本效益上,使用更小芯片面积进行链路堆栈,降低了功耗和采购成本,提高带宽效率进一步降低总拥有成本。此外,它还具有开放、标准化的特点,多家供应商正在开发相关加速器和交换机,利用成员公司创新将尖端功能纳入规范并推向市场。

技术原理与实现方式

UALink 1.0规范定义了用于加速器的高速、低延迟互连,支持每通道200 GT/s的最大双向数据速率,信号传输速率为212.5GT/s。一个UALink系统支持通过交换机连接最多1024个加速器,每个加速器分配端口和唯一标识符实现精确路由。其协议栈包括物理层、数据链路层、事务层和协议层四个硬件优化层。物理层使用标准以太网组件并进行修改以减少延迟,数据链路层打包数据单元并处理消息传递,事务层实现压缩寻址并支持直接内存操作,协议支持集成安全和管理功能。

未来展望与市场潜力

通常网络规范发布后,首批使用该技术的设备投入使用约需两年时间,但鲍曼表示,此次UALink因需求量大且制造商经验丰富,仅需十二到十八个月。UALink并非NVLink的山寨版,与NVLink存在差异,其在扩展规模上可能具有优势,未来有望为AI行业带来新的变革。

© 版权声明
Trea - 国内首个原生AI IDE