手机:16601807362,可咨询购买自动驾驶开发套件、自动驾驶教学平台及解决方案、线控底盘、Mobileye相机、德尔福和博世4D雷达、激光雷达。
今天看啥  ›  专栏  ›  人工智能AI大模型与汽车自动驾驶

独家整理:GPU服务器互联技术分析

人工智能AI大模型与汽车自动驾驶  · 公众号  ·  · 2024-08-06 08:45

文章预览

一、GPU服务器-GPU卡互联总结 AIGC产业的火爆,带动了GPU服务器的市场需求(23-24年最为明显),作为服务器领域的从业者,结合近期大家广泛讨论的GPU互联问题和知识点进行了总结归纳。 说明:以上信息为个人总结,根据网络公开信息进行的总结,准确性不做保证 二、标准GPU服务器的CPU-GPU互联 举例1:AMD Milan GPU服务器 1、AMD milan平台因为中间通过三条xGMI,整机可提供128x2-(32x3)=160条PCIE lane; 2、8张GPU占用了16x8=128条PCIE通道后,还有32条供其他网卡等部件使用; 举例2:Intel  icelake GPU服务器 1、扩展性强,4U支持10张双宽GPU卡(PCIE lane充足) 2、同PCIe SW芯 片下GPU可实现点对点通信 3、PCIE SW芯片增加了服务器整机成本 4、GPU上行总带宽存在收敛(CPU-GPU总带宽) 三、标准GPU服务器-GPU卡卡互联 1、通过PCIE SW芯片扩展的三种拓扑 通常情况下默认Balance拓扑 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览