机器学习芯片又赢得了谷歌思维帽的一根羽毛

导读谷歌表示 , TPU击败了英伟达和英特尔 。让我们解释说 。要解释的事情太多了 。TPU代表张量处理单元 。一位谷歌工程师将其描述为“一种全新的定

机器学习芯片又赢得了谷歌思维帽的一根羽毛

文章插图
谷歌表示 , TPU击败了英伟达和英特尔 。让我们解释说 。要解释的事情太多了 。TPU代表张量处理单元 。一位谷歌工程师将其描述为“一种全新的定制机器学习加速器” 。
好的 , 但是TPU到底是什么呢?IEEE Spectrum:“谷歌的张量处理单元是一个打印电路卡 , 它插入现有的服务器 , 充当一个协同处理器 , 一个为神经网络计算量身定制的处理器 。”
它在机器学习测试中击败了Xeon (Intel)和Nvidia的GPU , 不仅如此 , 据报道 , 它还以一个数量级的速度击败了这两家公司 。
InfoWorld表示 , 同样重要的是 , 谷歌透露了有关其自定义TTPU如何加速机器学习的细节 。
InfoWorld的资深作家Serdar Yegulalp说 , 该公司“正在提供TPU究竟能为机器学习提供多少能量的细节 , 这得益于一篇深入研究技术方面的论文 。”
《EE Times》的Rick Merritt表示 , 这篇论文“深入研究了TPU和基准测试 , 结果显示 , 它的速度至少比商用芯片快15倍 , 性能/瓦特高出30倍 。”
硬件工程师诺姆朱皮(Norm Jouppi)周三写了一篇关于这种芯片的博客 , “量化了我们的第一个机器学习芯片——TPU的性能 。”
他说:“今天(星期三) , 在硅谷计算机历史博物馆举行的工程学院会议上 , 我们将发布一份研究报告 , 与大家分享这些定制芯片的新细节 。”
这个博客非常有用 , 因为除了基准测试之外 , Jouppi还能够提供一个TPUs可以发挥作用的场景 。
“对TPUs的需求在六年前就出现了 , 当时我们开始在我们的产品中越来越多的地方使用计算上昂贵的深度学习模型 。使用这些模型的计算费用让我们担心 。如果我们考虑这样一种情况 , 即人们每天只使用谷歌语音搜索三分钟 , 而我们在使用的处理单元上运行我们的语音识别系统的深层神经网络 , 那么我们将不得不将谷歌数据中心的数量增加一倍!”
TPU面临着这样的挑战 。“TPUs让我们能够非常快速地做出预测 , 并使产品能够在不到一秒的时间内做出反应 。每个查询背后都有TPUs;它们为精确的视觉模型提供了强大的支持 , 这些模型是谷歌图像搜索、谷歌照片和谷歌云视觉API等产品的基础……”
高级编辑David Schneider, IEEE Spectrum:“TPU是为进行推理而设计的 , 它的硬件操作是8位整数 , 而不是更高精度的浮点数 。”
这是托马斯·克拉本在《登记簿》中对其推论作用的看法:
这位互联网之王组建了一个团队 , 生产了一种定制芯片 , 能够处理其神经网络工作流程的一部分 , 即所谓的推理 。在推理过程中 , 软件根据耗时且计算密集的训练阶段得出的数据进行预测 。处理器位于PCIe总线上 , 接受来自主机CPU的命令:它类似于以前的离散FPU或数学协处理器 , 但显然升级到了今天的标准 。
自2015年初以来 , 谷歌已经在其数据中心部署了TPU 。施耐德说 , 用来得出这些结论的基准测试是基于“人们在谷歌数据中心运行的六种实际类型的神经网络程序” 。


以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: