AI芯片发展的前生今世
YANN LECUN 曾经建立了一个名为ANNA的AI芯片。这一年是1992年,LeCun是贝尔实验室的研究员,贝尔实验室是纽约市外的标志性研发实验室。 他和其他几位研究人员设计这种芯片来运行深度神经网络- 复杂的数学系统,可以通过分析大量数据自行学习任务 - 但ANNA从未进入大众市场。 神经网络非常善于识别潦草地写在个人支票和信封上的字母和数字,但是在执行其他任务时它们并没有那么好用,至少在任何实际意义上都没有。
然而,今天,神经网络正在迅速改变互联网最大的参与者,包括谷歌,Facebook和微软。 LeCun现在监督Facebook内部的中央人工智能实验室,其中神经网络识别照片中的面部和对象,从一种语言翻译成另一种语言等等。 LeCun说,二十五年后,市场非常需要像ANNA这样的芯片。这些芯片很快就会大量涌现。
TPU异军突起,AI芯片格局始料未及
谷歌最近建立了自己的AI芯片,称为TPU,它广泛部署在支撑公司在线帝国的大型数据中心内。在成千上万的机器中,TPU帮助完成从识别Android智能手机中的命令到在Google搜索引擎上选择结果的所有内容。但这只是更大浪潮的开始。正如CNBC上周透露的那样,谷歌TPU背后的几位原始工程师正在努力在一家名为Groq的隐形创业公司制造类似的芯片,包括英特尔,IBM和高通在内的大牌商用芯片制造商正在推动同一方向。
像谷歌,Facebook和微软这样的公司仍然可以在称为CPU的标准计算机芯片上运行他们的神经网络。 但由于CPU被设计为通用处理器,因此效率非常低。 当与专门设计用于处理这些AI系统所需的大量数学计算的芯片配对时,神经网络可以更快地运行并且消耗更少的功率。 谷歌表示,在推出TPU芯片时,它节省了建造大约15个额外数据中心的成本。
TPU 运算速度比普通的 GPU、CPU 组合快 15-30 倍。
GPU实际上离我们已经远了一点点,在机器学习中GPU使用太广泛,实际上它并不是针对深度学习开发的。TPU是谷歌为机器学习定制的专用芯片(ASIC),一种神经网络训练的处理器,主要用于深度学习、AI运算。在今年的Google I/0 2018大会上,谷歌发布了新一代TPU处理器——TPU 3.0。TPU 3.0的性能相比目前的TPU 2.0有8倍提升,可达10亿亿次,计算规模堪比TOP500超算冠军。
此外,谷歌还发布了Edge TPU,特定用途 ASIC 芯片,专为在设备上运行 TensorFlow Lite ML 模型而设计。针对Edge TPU的新设备是:AIY Edge TPU Dev 开发板和 AIY Edge TPU 加速器,二者皆采用 Google 的 Edge TPU 芯片。
现在,像谷歌和Facebook这样的公司将神经网络推向手机和VR耳机 - 这样他们就可以消除将图像传送到远程数据中心时的延迟 - 他们也需要可以在个人设备上运行的AI芯片。 LeCun表示,“那里有更多专业芯片的空间,甚至更高效。”
换句话说,AI芯片的市场潜力巨大。 这就是为什么这么多公司都在加入这个组合的原因。
英特尔慌了,老牌芯片玩家是否要被时代抛弃
在收购了一家名为Nervana的创业公司之后,英特尔正在构建专门用于机器学习的芯片。IBM也是如此,创建了一个反映神经网络设计的硬件架构。LeCun表示,最近,高通公司已开始专门为执行神经网络构建芯片,他熟悉高通公司的计划,因为Facebook正在帮助该芯片制造商开发与机器学习相关的技术。 高通公司技术副总裁Jeff Gehlhaar证实了这个项目。 “我们在原型设计和开发方面走得很远,”他说。
与此同时,nVidia显然正在进入同一领域。 就在上个月,硅谷芯片制造商聘请了Clément Farabet,他在纽约大学LeCun学习期间探索了这种芯片架构,并继续创建了一个着名的深度学习创业公司Madbits,该公司于2014年被Twitter收购。
在像谷歌和Facebook这样的公司可以使用神经网络,比如说,从一种语言翻译成另一种语言之前,他们必须首先为这项特定的任务进行训练,为它提供大量现有翻译。 nVidia制造的GPU芯片通常用于加速此培训阶段。“对于培训,GPU基本上已经垄断了市场,特别是nVidia GPU,”LeCun说。 但Farabet的到来可能表明,就像高通公司一样,nVidia也正在探索能够在训练后执行神经网络的芯片。
GPU虽是当下主流,但依然难担AI大任
GPU或图形处理单元不是为AI设计的。它们专为渲染图形而设计。但大约五年前,像谷歌和Facebook这样的公司开始使用它们进行神经网络培训,只是因为它们是完成任务的最佳选择,LeCun认为他们将继续扮演这一角色。
他说,编码人员和公司现在对GPU非常熟悉,他们拥有使用它们所需的所有工具。 “GPU将很难取代,”他说,“因为你需要一个完整的生态系统。”但他也认为,新型AI芯片将大大改变大型互联网公司在数据中心和消费设备上执行神经网络的方式 - 从手机到智能割草机和真空吸尘器。
正如Google的TPU所示,专用的AI芯片可以为数据中心带来全新的效率,特别是随着对图像识别服务需求的增加。在执行神经网络时,它们可以燃烧更少的电力并产生更少的热量。 “如果你不想煮小湖,你可能需要专门的硬件,”LeCun打趣道。
AI芯片未来可期
同时,随着虚拟和增强现实变得越来越普遍,手机和耳机将需要类似的芯片。 正如Facebook上周在推出其新的增强现实工具时解释的那样,这种技术需要神经网络来识别你周围的世界。 但增强现实系统无法承担在数据中心运行此AI的能力。 通过互联网发送所有图像需要太长时间,破坏了模拟现实的效果。 正如Facebook首席技术官Mike Schroepfer所解释的那样,Facebook已经开始依靠GPU和其他芯片(称为数字信号处理器)来完成某些任务。 但从长远来看,设备肯定会包含一种全新的芯片。 需要就在那里。 而且芯片制造商正在竞相填补它。
| 留言与评论(共有 0 条评论) |