[ad_1]
由于缺乏激烈的竞争,英伟达在最新的 MLPerf 中的一些最重要的结果与自己相悖,将其最新的 GPU H100“Hopper”与其现有产品 A100 进行了比较。 英伟达
尽管芯片巨头英伟达倾向于在人工智能领域投下长长的阴影,但如果最新的基准测试结果有任何迹象,它简单地将竞争赶出市场的能力可能正在增强。
周三,监督机器学习性能流行测试 MLPerf 的行业联盟 MLCommons 发布了人工神经网络“训练”的最新数据。
烘焙展示了 Nvidia 三年来拥有的竞争对手最少,只有一个:CPU 巨头英特尔。
在过去的几轮中,包括 6 月份的最近一轮,英伟达有两个或更多的竞争对手,包括英特尔、谷歌及其“张量处理单元”或 TPU 芯片,以及来自英国初创公司 Graphcore 的芯片。 而在过去的几轮中,中国电信巨头华为。
还: 英特尔推出新芯片,将为即将推出的 Aurora 超级计算机提供动力
由于缺乏竞争,这一次英伟达包揽了所有的最高分,而在 6 月份,该公司与谷歌并驾齐驱。 Nvidia 提交的系统使用其已经推出数年的 A100 GPU,以及其全新的 H100,称为“Hopper”GPU,以纪念计算先驱 Grace Hopper。 H100 在所谓的推荐系统的八项基准测试之一中获得最高分,这些系统通常用于向网络上的人们推荐产品。
英特尔提供了两个使用其 Habana Gaudi2 芯片的系统,以及标有“预览版”的系统,展示了其即将推出的 Xeon 服务器芯片,代号为“Sapphire Rapids”。
事实证明,英特尔系统比英伟达部件慢得多。
英伟达在新闻稿中表示,“H100 GPU(又名 Hopper)在所有 8 个 MLPerf 企业工作负载中创造了世界纪录训练模型。在首次提交 MLPerf 训练时,它们的性能比上一代 GPU 高出 6.7 倍。由同样的比较,由于软件的进步,今天的 A100 GPU 的肌肉量增加了 2.5 倍。”
在正式的新闻发布会上,英伟达的人工智能和云高级产品经理 Dave Salvator 重点介绍了 Hopper 的性能改进和对 A100 的软件调整。 Salvatore 展示了 Hopper 如何提高相对于 A100 的性能——换句话说,这是对 Nvidia 与 Nvidia 的测试——并且还展示了 Hopper 如何能够碾压英特尔 Gaudi2 芯片和 Sapphire Rapids。
还: Nvidia 首席执行官 Jensen Huang 宣布推出“Hooper”GPU 以及用于大型 AI 语言模型的云服务
鉴于在过去几轮 MLPerf 中,个别供应商已决定跳过竞争,只在随后的一轮中返回,因此没有不同供应商本身并不意味着一种趋势。
谷歌没有回应 ZDNET 关于为什么这次没有参与的置评请求。
在一封电子邮件中,Graphcore 告诉 ZDNET,与为 MLPerf 准备提交所需的数周或数月相比,它认为目前可能有更好的地方来投入其工程师的时间。
“收益递减的问题出现了,”Graphcore 的通信主管 Iain Mackenzie 通过电子邮件告诉 ZDNET,“从某种意义上说,将不可避免地出现无限的跨越式发展,进一步缩短秒数,提出更大的系统配置。”
Graphcore“可能会参与未来的 MLPerf 轮次,但现在它并没有反映我们看到最令人兴奋的进展的 AI 领域,”Mackenzie 告诉 ZDNET。 MLPerf 任务仅仅是“赌注”。
相反,他说,“我们真的想把精力集中在”“为人工智能从业者解锁新能力”上。 为此,“你可以期待很快看到 Graphcore 的一些令人兴奋的进展”,Mackenzie 说,“例如在模型稀疏化以及 GNN 方面,”或 Graph Neural Networks。
除了英伟达的芯片在竞争中占据主导地位,所有获得最高分的计算机系统都是由英伟达制造的,而不是来自合作伙伴的。 这也是与过去几轮基准测试的变化。 通常,一些供应商,例如戴尔,会在他们使用 Nvidia 芯片组装的系统中获得最高分。 这一次,在英伟达自己使用的芯片方面,没有任何系统供应商能够击败英伟达。
MLPerf 训练基准测试报告调整神经“权重”或参数需要多少分钟,直到计算机程序在给定任务上达到所需的最低准确度,这一过程称为“训练”神经网络,其中时间越短越好。
尽管最高分经常成为头条新闻——并且供应商向媒体强调——实际上,MLPerf 结果包括各种各样的系统和范围广泛的分数,而不仅仅是一个最高分。
在电话交谈中,MLCommons 的执行董事大卫坎特告诉 ZDNET 不要只关注最高分。 Kanter 说,对于正在评估购买 AI 硬件的公司而言,基准套件的价值在于拥有一套广泛的、各种规模和各种性能的系统。
提交的内容有数百个,从只有几个普通微处理器的机器到拥有数千个 AMD 主机处理器和数千个 Nvidia GPU 的机器,这些系统获得了最高分。
“在机器学习训练和推理方面,对所有不同级别的性能都有各种各样的需求,”Kanter 告诉 ZDNET,“目标的一部分是提供可以在所有这些不同尺度上使用的性能度量。”
“一些小型系统的信息与大型系统的信息一样多,”坎特说。 “所有这些系统都同样相关和重要,但可能对不同的人。”
还: 人工智能性能的基准测试 MLPerf 继续获得追随者
至于这次 Graphcore 和谷歌没有参与,坎特说:“我希望看到更多的提交,”还补充说,“我理解对于许多公司来说,他们可能不得不选择如何投资工程资源。”
坎特说:“我认为你会在基准测试的不同轮次中看到这些事情随着时间的推移而起起落落。”
Nvidia 缺乏竞争的一个有趣的次要影响是,一些训练任务的一些最高分不仅显示出比以前有所改善,而且还出现了倒退。
例如,在古老的 ImageNet 任务中,神经网络被训练为数百万张图像分配分类标签,这次的最高结果与 6 月份的第三名相同,这是一个由 Nvidia 构建的系统,花了19秒训练。 6 月份的结果落后于 Google 的“TPU”芯片的结果,后者仅用时 11.5 秒和 14 秒。
当被问及先前提交的重复时,Nvidia 在电子邮件中告诉 ZDNET,这一次它的重点是 H100 芯片,而不是 A100。 Nvidia 还指出,自 2018 年第一个 A100 结果以来已经取得了进展。在那轮训练基准测试中,一个八路 Nvidia 系统花了近 40 分钟来训练 ResNet-50。 在本周的结果中,该时间已缩短到 30 分钟以下。
Nvidia 还谈到了它与英特尔的 Gaudi2 AI 芯片和即将推出的 Sapphire Rapids XEON 处理器相比的速度优势。 英伟达
当被问及竞争性提交的缺乏和 MLPerf 的可行性时,Nvidia 的 Salvatore 告诉记者,“这是一个公平的问题,”并补充说,“我们正在尽一切努力鼓励参与;行业基准因参与而蓬勃发展。”
“我们希望,”Salvatore 说,“随着一些新的解决方案继续从其他解决方案进入市场,他们将希望在行业标准基准中展示这些解决方案的好处和优点,而不是提供他们自己的一次性性能声明,这很难验证。”
Salvatore 说,MLPerf 的一个关键要素是严格发布测试设置和代码,以在数十家公司的数百份提交中保持测试结果清晰和一致。
除了 MLPerf 训练基准分数,MLCommons 周三发布的还提供了 HPC、意义、科学计算和超级计算机的测试结果。 这些提交的内容包括来自 Nvidia 和合作伙伴的混合系统,以及运行自己芯片的富士通 Fugaku 超级计算机。
还: Neural Magic 的稀疏性、Nvidia 的 Hopper 和阿里巴巴的网络在最新的 MLPerf AI 基准测试中均处于领先地位
第三场比赛,称为 TinyML,测量低功耗和嵌入式芯片在执行推理时的表现,这是机器学习的一部分,训练有素的神经网络进行预测。
英伟达迄今为止尚未参加的这场比赛有各种有趣的芯片和供应商提交的材料,例如芯片制造商 Silicon Labs 和高通、欧洲科技巨头意法半导体,以及初创公司 OctoML、Syntiant 和 GreenWaves Technologies。
在 TinyML 的一项测试中,使用 CIFAR 数据集和 ResNet 神经网络的图像识别测试 GreenWaves(总部位于法国格勒诺布尔)因处理数据的延迟最低而获得最高分,并提出了一个预言。 该公司提交了结合 RISC 处理器的 Gap9 AI 加速器。
在准备好的评论中,GreenWaves 表示 Gap9“在中等复杂度的神经网络(例如 MobileNet 系列的分类和检测任务中)以及复杂的混合精度递归神经网络(例如我们基于 LSTM 的音频降噪器)上提供了极低的能耗。”
[ad_2]
Source link