人工智能集群的构建办法,如果环境中的芯片数量添加状况也是这样

近年来,处理器技能已经进入如此大的规模,以至于一个U盘大小的设备现在能够用来为神经网络供电。但是,因为大规模人工智能施行中的基本应战,企业往往难以充分发挥其核算才能。IBM :最新的突破将大大提高深化学习的速度。这个问题与可扩展性有关。周二,IBM发布了一个名为分布式深度学习DDL的软件库来处理这个问题。深度学习是机器学习的一个子集,旨在教核算机以与人类相同的办法学习。例如,通过描绘这种动物有四条腿、一个鼻子和一条尾巴的实际,人们将不会认出它是狗。

一旦人们知道狗长什么样,他们就会和猫有永久的区别。深化学习试图在软件中复制这种办法。IBM研讨部门的主管HilleryHunter表明,大多数深化学习结构支撑跨多台服务器扩展大型模型的才能,许多结构现在支撑GPU,可是搜集和同步剖析成果的办法远远不够。同步工作流深度学习形式在核算机集群上运转,并由GPU增强。GPU芯片稀有百万个分布式的、相互关联的处理元件,它们的功能与人脑中神经元的功能大致相似。这些人工神经元一同处理信息,就像人类一样,每个神经元处理一小部分数据。当节点完结核算时,成果将在其他神经网络上同步,以协助协调工作。

在IBM看来,这是瓶颈。人工神经元在GPU上布置和运转的速度越快,核算速度就越快,这意味着成果的同步将愈加频频。因为人工智能集群的构建办法,假如环境中的芯片数量添加,状况也是如此。但是,深化学习结构只能频频地同步数据。因而,处理速度遭到GPU之间数据传输的约束。DDL使用所谓的多层通信算法来改动这种平衡。这个软件库修改了发送信息的网络路径,以完成推迟和带宽之间的“最佳”平衡,然后通信不再是首要瓶颈。

记录性能在内部测验中,IBM在一个拥稀有百个GPU的集群上布置了DDL,并从一个盛行的研讨数据集向22000个类别中的一个或多个类别发送和处理了750万张图像。通过7小时的训练,该模型能够准确辨认百分之33.8 的物体,并在10天的训练后,打破了微软此前创下的百分之29.8 的记录。IBM高性能核算和人工智能副总裁Sumit Gupta说,假如百分之4 的改善听起来不足为奇,而且总体成功率依然相对较低,这是因为该模型比实际中遇到的要杂乱得多。

因而,这种改善是渐进的,他指出,微软曾经的记录只比前一次好百分之0.8 。这个基准旨在强调深化的学习软件,以证明研讨人员的确建立了一个更好的模型。DDL在人工智能开发训练中特别有用,这是整个项目生命中最长的职业时刻之一。有时,模型需要几周甚至几个月的时刻来处理样本数据,以使其足够精确,用于出产。根据IBM的说法,在某些状况下,IBM的软件库能够将这个过程缩短到几个小时。“假如训练一个模型需要16天来辨认新的信用卡,那么在这16天内你会赔钱。

深化学习在医疗环境中也很有用,例如组织剖析和关于生计或死亡的长时刻训练。此外,还有其他好处。假如一个深化的学习形式能够在几个小时而不是几周内完结训练,它能够开释企业的人工智能基础设施,以便更快地完结其他项目和其他工作。IBM还展示了如何使用DDL来完成百分之95 的扩展效率,相比之下,Facebook在之前的测验中记录了百分之89 。这两项测验使用相同的样本数据。

IBM表明,DDL能够协助企业训练他们的模型,以到达曾经因为时刻约束而无法到达的速度和范围。它将DDL软件库与一切主流的深化学习结构连接起来,包括TensorFlow、Caffee、Chainer、Torch和茶O,一切这些都在开源许可下。IBM还将该软件库整合到其PowerAI深度学习套件渠道中,该渠道有免费和付费的企业版本,并且在MinbixMinskyPowerCloud上。古普塔说:“我们将通过PowerAI把它带给每个人。”

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();