英伟达稳步打造AI开发生态帝国,谁能撼动其AI芯片霸主地位?

6月25日@IT鲸英派 应邀参加了#NVIDIA DGX POD 巡展 2019#再一次近距离体验了NVIDIA DGX 系列产品,包括超级计算机、 AI 工作站以及 NetApp 带来的 ONTAP® AI 数据平台等产品;也再一次领略了英伟达作为AI智能芯片领域市场霸主的风采。

由于具备的得天独厚的技术和应用优势,英伟达逐渐打造了一个完备的GPU+CUDA的AI生态帝国,主导云端AI芯片市场。英伟达可以说是目前AI领域涉及面最广、市场份额最大的公司,旗下产品线遍布自动驾驶汽车、高性能计算、机器人、医疗保健、云计算、游戏视频等众多领域。

早在2017年,英伟达就针对自动驾驶汽车领域推出了全新人工智能超级计算机Xavier;2018年5月,在台湾GTC大会上又推出了被黄仁勋称为全球最强的AI训练器——HGX-2,这是全球首个融合人工智能和高性能计算的超级计算机。可见英伟达的实力有多么的恐怖。

HGX-2裸照

英伟达在人工智能领域具有霸主地位。一方面是产品优势:相比于传统CPU服务器,在提供相同算力情况下,GPU服务器在成本、空间占用和能耗分别为传统方案的1/8、1/15和1/8。尤其在AI模型训练业务层,GPU服务器的并行计算能力相当强大,能很好的完成训练任务。另一方面:英伟达基于“GPU+CUDA”打造AI开发生态圈,为开发者提供了丰富的SDK开发工具套件,支持现有的大部分的机器学习、深度学习开发框架 ,开发者可以在CUDA平台上使用自己熟悉的开发语言进行应用开发。目前形成了非常可观的基于“GPU+CUDA”的开发者群体。

但是英伟达也面临诸多挑战。从技术和应用角度讲GPU并非完美的AI芯片解决方案。GPU与FPGA、ASIC等异构计算芯片相比,有着价格昂贵、功耗较高,并行运算能力在推理端无法完全发挥的缺点。也因此,英伟达的芯片产品在训练端的AI芯片计算市场几乎垄断,但在推理判断市场却并没有突出的优势。由于在推理判断的AI场景中,FPGA、ASIC等技术架构更为合适处理相对固定的数据类型,而且部署成本更低。因此一批新兴及传统芯片厂商纷纷推出了自家面向推理判断领域的AI芯片。

最近在资本圈和市场上引起广泛关注的华为海思、寒武纪、地平线、比特大陆等公司都是AI芯片领域的新贵。在产品形态上,他们大多采用ASIC方式将AI应用固化在芯片中,从而获得更低的成本和更高的性能。当然,传统科技企业也没有在这一领域缺席,包括Google的TPU、Intel的Arria 10系列(FPGA芯片)和Xilinx的Versal芯片(FPGA)等也纷纷进入AI推理判断领域。

Kirin 810

说到国内芯片厂商就不到不说华为了。华为被目前的美国贸易战以及5G话题所覆盖,其实华为早在去年10月10号的“联接大会2018”便公布了最新的全栈全场景AI芯片战略,并正式推出了基于达芬奇架构设计的的云端和边缘端的AI芯片,涵盖了从终端到云端,从AI芯片到深度学习训练部署框架的多层解决方案。

根据AI芯片功能及部署场景,对AI芯片可用训练/推断、云端/边缘端两个维度进行划分。目前来说,英伟达在训练端及云端的市场地位仍然不可撼动,在应用场景众多的推断领域与边缘计算领域却未形成一家独大,AI推断芯片市场呈现出百家争鸣的市场格局。

IT鲸英派:编辑整理

更多信息请关注公号:IT鲸英派!

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();