文章预览
一、GPU服务器-GPU卡互联总结 AIGC产业的火爆,带动了GPU服务器的市场需求(23-24年最为明显),作为服务器领域的从业者,结合近期大家广泛讨论的GPU互联问题和知识点进行了总结归纳。 说明:以上信息为个人总结,根据网络公开信息进行的总结,准确性不做保证 二、标准GPU服务器的CPU-GPU互联 举例1:AMD Milan GPU服务器 1、AMD milan平台因为中间通过三条xGMI,整机可提供128x2-(32x3)=160条PCIE lane; 2、8张GPU占用了16x8=128条PCIE通道后,还有32条供其他网卡等部件使用; 举例2:Intel icelake GPU服务器 1、扩展性强,4U支持10张双宽GPU卡(PCIE lane充足) 2、同PCIe SW芯 片下GPU可实现点对点通信 3、PCIE SW芯片增加了服务器整机成本 4、GPU上行总带宽存在收敛(CPU-GPU总带宽) 三、标准GPU服务器-GPU卡卡互联 1、通过PCIE SW芯片扩展的三种拓扑 通常情况下默认Balance拓扑
………………………………