新闻中心

EEPW首页 > 智能计算 > 编辑观点 > 蓝海变成红海?AMD在AI领域向英伟达发起挑战!

蓝海变成红海?AMD在AI领域向英伟达发起挑战!

作者:ZongYu时间:2023-06-16来源:EEPW收藏

最近今年随着各种生成式AI的大伙着实是风光了好一阵子作为被大众成为新一代“工业革命”的生成式AI在现实中虽刚刚进入应用阶段作为AI训练最优秀的硬件生产商的股票可谓是节节高升面对这一片蓝海其他厂商不可能不眼红于是就在前不久2023613的老对手在数据中心和人工智能首映式上就发布了全新一代AI芯片号称世界上最强的AI处理芯片

本文引用地址:http://www.amcfsurvey.com/article/202306/447759.htm

图片1.jpg 

英伟达AI计算平台H100

 

在会议开始时, 全球总裁兼 CEO 苏姿丰表示:今天,我们在数据中心战略上又向前迈出了重要一步,因为我们扩展了第四代 EPYC 处理器系列,为云和技术计算工作负载提供了新的领先解决方案,并宣布了与最大的云提供商的新公共实例和内部部署。人工智能是塑造下一代计算的决定性技术,也是  最大的战略增长机会。我们专注于加速 AMD AI 平台在数据中心的大规模部署,计划于今年晚些时候推出我们的 Instinct MI300 加速器,以及为我们的硬件优化的企业级 AI 软件生态系统不断壮大。

随后苏姿丰博士便发布了三款全新的面对数据中心和AI平台的芯片分别是:新一代的 Epyc 处理器,Bergamo 是针对云原生应用的产品线,也是第一款使用 Zen 4c 架构的产品;最新的缓存堆叠 芯片,代号为 Genoa-X与具有相同内核数的 Intel Xeon 的比较,性能提高了 2.2 倍和 2.9 倍;新款  专用的 MI300X AI 加速器,并表示 MI300X 和 8- Instinct 平台将在第三季度出样,并在第四季度推出。我们分别来简要介绍一下

正如上文所说Bergamo 是针对云原生应用的产品线,Bergamo所使用的Zen 4c架构是一种“青春版”进行了一系列的精简重新设计了L3快取系统对比完整的Zen 4架构其芯片面积减少了35%

在具体规模方面 Bergamo Epyc 处理器具有 最高128 个核心和 256 个线程,分布在八个核心复合芯片上。其中每一个CCD芯片之上16Zen 4c而一颗Bergamo其上最多集成8CCD因此其最高具备128 核心同时其采用了台积电5nm工艺制造,共有高达 820 亿个晶体管。

图片2.jpg 

AMD Bergamo Epyc 处理器

 

Meta将作为Bergamo芯片最先一批客户Meta计划为其基础架构使用Bergamo,它的性能比上一代 Milan 芯片高出 2.5 倍。Meta 还将使用 Bergamo 作为其存储平台。

 

接下来便便是AMD推出的Genoa-X其针对的场景主要是高性能计算例如流体力学分子动力学有限元分析等等对于带宽要求极高的科学计算应用为此AMDGenoa-X CPU 在每个芯片计算芯片上堆叠了 64MB SRAM 因此其三级缓存来到了惊人的1.1GB的大小得益于如此恐怖的三级缓存大小Genoa-X 与具有相同内核数的 Intel Xeon 的比较,其对于流体力学的计算能力直接提升了2.2

图片3.png 

AMD Genoa-X

 

而本次发布会的重磅内容自然是AMD面向AI的计算平台Instinct MI300 加速器。它的对标对手正是近期大红大紫的英伟达“地球最强”计算平台H100系列AMD Instinct MI300 于去年 月首次发布,并在 2023 年国际消费电子展上进行了更深入的详细介绍,这是 AMD 在 AI 和 HPC 市场的重要一步。

 图片3.jpg

AMD直面英伟达推出的平台MI300系列

 

在本次发布会之上,苏姿丰发布了两款MI300系列加速器分别是MI300AMI300X其中MI300A基础款MI300X则是硬件性能更高的大模型优化款

我们先来看看MI300A的基本情况AMD表示MI300A是首款AMD面对AI和高性能计算(HPC)推出的APU。它一共拥有13个小芯片,包含95nm制程GPU+CPU,以及46nm制程的小芯片(base dies),包含1460亿个晶体管,其中有24Zen 4 CPU核心,1CDNA 3图形引擎,128GBHBM3内存。九个计算裸片混合了 5nm CPU 和 GPU,它们以 3D 方式堆叠在四个 6nm 基础裸片之上,这些裸片是处理内存和 I/O 流量以及其他功能的有源中介层对比与上一代产品MI250,性能提升了8倍,效率提升了5倍。

作为重量级产品的MI300XAMDPPT上打出了十分令人瞩目的一行字For LLM——大语言模型专用AMD表示,MI300X的高带宽内存(HBM)密度,最高可达英伟达H1002.4倍,高带宽内存带宽最高可达H1001.6倍,显然MI300X能运行比H100更大的AI模型。在发布会上苏姿丰博士还现场运行了Hugging Face falcon-40b-instruct模型,写了首关于旧金山(这次AMD发布会地址)的小诗,以此来展示MI300X在本地处理大语言模型的强大算力

图片4.png 

在硬件参数方面MI300X包含12个小芯片,1530亿个晶体管,192GBHBM3内存,内存带宽达到5.2TB/sInfinity Fabric带宽达到896GB/s这次MI300X所提供的HBM密度是对手英伟达H1002.4HBM带宽则是1.6单单从硬件参数上来看MI300X无疑是已经超过了英伟达的H100成为了这个星球上最强的LLM训练硬件但是有趣的是就在MI300系列发布的时刻资本市场的反应却不是很乐观

图片5.png 

随着发布会的进行AMD的股票是一跌再跌跌幅最大的时候一度超过了3.61%而英伟达这边倒是迎来的一波小小的涨幅看来对于投资者来说对于AMD强势发布的MI300系列好像并不是很好看鉴于AMD这几年来在AI方面的迟缓再加上MI300X要等到今年年末才有可能被AMD推向市场这种股价变动倒也是在意料之中

不管怎么说英伟达已经在AI计算领域称王称霸了许久现在终于有一个实力“靠谱”的新选手上台挑战了无论结果如何对于整个市场来说一定是乐于见到的比起英伟达的一家独大百家争鸣才是一个良性的环境

   




关键词: AI计算 AMD 英伟达 GPU

评论


相关推荐

技术专区

关闭