科技动态:人工智能系统用光进行联想学习

研究人员开发了一种片上光学处理器,能够检测数据集中的相似性,其速度比在电子处理器上运行的传统机器学习算法快1000倍。

这项新研究的灵感来自诺贝尔奖得主Ivan Pavlov对经典条件反射的发现。在他的实验中,通过在喂食过程中提供另一种刺激,例如铃声或节拍器的声音,他的狗开始将这两种体验联系起来,只听到声音就会流口水。

配对的两个不相关事件的重复关联可以产生学习反应——条件反射

图1:光学联想学习单元(AMLE)。

共同第一作者James Tan博士做了这项工作,他认为巴甫洛夫式联想学习被认为是一种基本的学习形式,可以塑造人和动物的行为,但还没有被用于人工智能系统中。

我们对巴甫洛夫学习和光学并行处理的研究证明了其对于处理各种人工智能任务的具有极大的潜力。

在学习过程中,大多数人工智能系统中使用的神经网络通常需要大量的数据示例——训练模型,以可靠识别猫可能需要多达10000张猫/非猫图像——需要极高的计算和处理成本。

联想学习(Associative Monadic Learning Element,AMLE)不是依赖神经网络喜欢的反向传播来“微调”结果,而是使用一种记忆材料,学习模式将数据集中的相似特征关联在一起——模仿巴甫洛夫在“匹配”情况下观察到的条件反射。

AMLE输入与正确的输出配对,以监督学习过程,并且可以使用光信号重置记忆材料。在测试中,AMLE只需使用五对图像进行训练,就可以正确识别cat图像/非cat图像。

与传统电子芯片相比,新型光学芯片的可观性能可归结为两个关键的设计差异:

1.一种独特的网络架构,将联想学习作为构建块,而不是使用神经元和神经网络。

2.使用“波分复用”在单个通道上发送不同波长的多个光信号,以提高计算速度。

芯片硬件使用光发送和检索数据,以最大限度地提高信息密度——同时发送不同波长的多个信号进行并行处理,从而提高识别任务的检测速度。每个波长都提高了计算速度。

Munster大学的Wolfram Pernice教授解释说:“该设备自然地捕捉到数据集中的相似之处,同时利用光并行进行,以提高整体计算速度,这可能远远超过传统电子芯片的能力。”

共同第一作者Zengguang Cheng教授认为联想学习方法可以补充神经网络,而不是取代它们。

对于不需要对数据集中高度复杂的特征进行实质性分析的问题,这种方法更有效。许多学习任务都是基于体积的,没有那么复杂——在这些情况下,关联学习可以更快地完成任务,并且计算成本更低。

越来越明显的是,在人类历史的下一个阶段,人工智能将成为未来许多创新的核心。尽管未来还有许多的挑战,这项工作为实现快速光学处理器铺平了道路,该处理器可以捕捉特定类型人工智能计算的数据关联。

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章