欢迎访问速发财讯!

AMD王牌AI加速卡MI300X出世:训练模型比英伟达H100最高快 60%

智能科技 2023-12-072823user3242

12 月 7 日消息,AMD 今天凌晨 2 点举办“Advancing AI”活动中,正式宣布了旗舰 AI GPU 加速器 MI300X,其性能比英伟达的 H100 高出 60%。

性能:

AMD 公司在演讲过程中,对比英伟达的 H100 加速卡,分享了 MI300X 的性能参数情况,IT之家附上数值如下:

内存容量是 H100 的 2.4 倍

内存带宽是 H100 的 1.6 倍

FP8 TFLOPS 精度是 H100 的 1.3 倍

FP16 TFLOPS 精度是 H100 的 1.3 倍

在 1v1 比较中,训练 Llama 2 70B 模型速度比 H100 快 20%

在 1v1 比较中,训练 FlashAttention 2 模型速度比 H100 快 20%

在 8v8 Server 比较中,训练 Llama 2 70B 模型速度比 H100 快 40%

在 8v8 Server 比较中,训练 Bloom 176B 模型速度比 H100 快 60%

AMD 提到,在训练性能方面,MI300X 与竞争对手(H100)不相上下,并提供具有竞争力的价格 / 性能,同时在推理工作负载方面表现更为出色。

MI300X AI 加速卡软件堆栈升至 ROCm 6.0,改善支持生成式 AI 和大型语言模型。

新的软件堆栈支持最新的计算格式,如 FP16、Bf16 和 FP8(包括 Sparsity)。

架构:

AMD Instinct MI300X 是最受关注的芯片,因为它针对的是 AI 领域的 NVIDIA 的 Hopper 和英特尔的 Gaudi 加速器。

该芯片完全基于 CDNA 3 架构设计,混合使用 5nm 和 6nm IP,AMD 组合这些 IP,让其晶体管数量达到 1530 亿个。

设计方面,主中介层采用无源芯片布局,该芯片使用第 4 代 Infinity Fabric 解决方案容纳互连层。中介层总共包括 28 个芯片,其中包括 8 个 HBM3 封装、16 个 HBM 封装之间的虚拟芯片和 4 个有源芯片,每个有源芯片都有 2 个计算芯片。

每个基于 CDNA 3 GPU 架构的 GCD 总共有 40 个计算单元,相当于 2560 个内核。总共有八个计算芯片 (GCD),因此总共有 320 个计算和 20,480 个核心单元。在良率方面,AMD 将缩减这些内核的一小部分,我们将看到总共 304 个计算单元(每个 GPU 小芯片 38 个 CU),总共有 19,456 个流处理器。

内存方面,MI300X 采用 HBM3 内存,容量最高 192GB,比前代 MI250X(128 GB)高 50%。该内存将提供高达 5.3 TB / s 的带宽和 896 GB/s 的 Infinity Fabric 带宽。

AMD 为 MI300X 配备了 8 个 HBM3 堆栈,每个堆栈为 12-Hi,同时集成了 16 Gb IC,每个 IC 为 2 GB 容量或每个堆栈 24 GB。

相比之下,NVIDIA 即将推出的 H200 AI 加速器提供 141 GB 容量,而英特尔的 Gaudi 3 将提供 144 GB 容量。

在功耗方面,AMD Instinct MI300X 的额定功率为 750W,比 Instinct MI250X 的 500W 增加了 50%,比 NVIDIA H200 增加了 50W。

其中一种配置是技嘉的 G593-ZX1 / ZX2 系列服务器,提供多达 8 个 MI300X GPU 加速器和两个 AMD EPYC 9004 CPU。这些系统将配备多达 8 个 3000W 电源,总功率为 18000W。

【来源:IT之家】

The End
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。

Copyright © 2099 速发财讯 版权所有

苏ICP备2023036119号-2 |——:合作/投稿联系微信:nvshen2168

|—— TXT地图 | 网站地图 |