??:了解MLPerf这是衡量机器学习性能的基准

当您想查看一个 CPU 是否比另一个更快时,您可以使用PassMark 。对于 GPU,有 Unigine 的Superposition 。但是,当您需要弄清楚您的机器学习平台有多快时,或者您正在考虑投资的机器学习平台有多快时,您会怎么做?


??:了解MLPerf这是衡量机器学习性能的基准

文章插图


机器学习专家大卫·坎特与来自谷歌、英特尔和微软等组织的科学家和工程师一起,旨在用机器学习基准套件MLPerf来回答这个问题 。测量机器学习平台的速度是一个问题,研究时间越长,它就会变得越复杂,因为机器学习领域的问题集和架构差异很大——而且除了性能之外,MLPerf 的推理方面还必须测量准确性 。

训练和推理

如果您不直接使用机器学习,很容易对这些术语感到困惑 。您必须了解的第一件事是,神经网络根本没有真正编程过:它们被提供了(希望如此)大量相关数据,然后对其进行松散以寻找模式 。神经网络存在的这个阶段称为训练 。神经网络得到的训练越多,它就越能学会识别模式并推导出规则来帮助它解决问题 。

训练阶段的计算成本是巨大的(我们不是在开玩笑“大”数据集部分) 。例如,Google在 238,000,000 封样本电子邮件上训练了 Gmail 的SmartReply功能,而 Google Translate 在数万亿样本上进行了训练 。为训练而设计的系统通常庞大而强大,它们的工作是尽可能快地处理数据——这需要非常强大的存储子系统和处理能力,以保持 AI 管道的供给 。

神经网络经过训练后,从中获取有用的操作和信息称为推理 。与训练不同,推理通常非常有效 。如果您对老式计算机科学的关注比对机器学习的关注重,这可以被认为类似于从非结构化数据构建 b 树或其他有效索引,然后从中找到您想要的结果之间的关系完成的索引 。

在运行推理工作负载时,性能当然仍然很重要,但指标和架构是不同的 。相同的神经网络可能会在大型超级计算机上进行训练,同时在预算智能 上进行推理 。训练阶段要求每秒执行尽可能多的操作,而无需担心任何一个操作的延迟 。推理阶段通常是相反的——有人在等待推理查询的结果,而这个人在等待找出照片中有多少长颈鹿时很快就会变得不耐烦 。

大问题空间需要复杂的答案

如果您希望为您的 PC 获得一个单一的 MLPerf 分数,那么您就不走运了 。像 PassMark 这样简单的整体基准测试可以假设他们测试的 CPU 在架构和设计上大致相似 。当然,AMD 的 Epyc 和英特尔的 Xeon Scalable 各有优点和缺点——但它们都是 x86_64 CPU,您可以对任一 CPU 上一个任务和下一个任务之间的一般性能关系做出一些相对安全的假设 。例如,在同一 CPU 上,浮点性能不太可能比整数性能快几个数量级 。

由于 Kanter 和他的同事希望 MLPerf 不仅适用于广泛的工作负载,而且适用于数量庞大的架构,因此他们无法做出类似的假设,因此他们无法为您的机器学习硬件打分. 分数首先分解为训练工作负载和推理工作负载,然后再分为任务、模型、数据集和场景 。因此,MLPerf 的输出与其说是分数,不如说是电子表格中特别宽的行 。

任务是图像分类、对象检测和自然语言翻译 。每个任务都根据四种情况进行衡量:

单流——以延迟衡量的性能

示例:智能 相机应用程序一次处理单个图像

多流——以可能的流数衡量性能(受延迟限制)

示例:驾驶辅助算法对多个摄像头和传感器进行采样

服务器— 以每秒查询数衡量的性能(受延迟限制)

示例:语言翻译站点或其他大规模并行但实时的应用程序


以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: