CNN(卷积神经网络)在图像分类、面部识别、物体识别等领域得到了广泛应用,可惜为移动设备设计CNN很有挑战性,因为移动端需要体积小、速度快且准确率高的CNN模型。尽管MobileNet和MobileNetV2移动端架构的设计和性能有所提高,手动创造高效的模型还是比较难,因为要考虑到许多可能性。随着前不久AutoML神经元结构搜索空间得到的突破,不禁让人好奇是否可以使用AutoML来优化移动端CNN模型。
近日,谷歌科研人员研究出了一种试验方法,利用AI模型来优化图像识别速度和准确率。
谷歌在新发表的论文中,描述了一款全自动系统MnasNet,能够从一系列神经元结构中选出最理想的结果,结合强化学习去分析手机速度受到限制的原因。MnasNet在谷歌Pixel手机可运行多种实验模型,然后测试模型实际操作的性能,选出最佳的模型。
科研人员在博客中表示,因为不同手机中的软件硬件的特质不同,所以根据这些特质选择合适的神经结构,才能提高准确性、加快处理速度。
据青亭网了解,MnasNet系统包括三部分:1,一个基于周期性神经网络的控制机制,可学习并抽样模型的结构;2,一个用于构建和训练模型的训练机制;3,一个基于TensorFlow Lite框架的推理机制,用于测量模型的速度。
在选出最佳模型后,科研团队将其放入ImageNet进行对比,ImageNet美国斯坦福大学和普林斯顿大学管理的一个图像数据库,在微软COCO数据库中可以找到。研究结果显示,最佳模型的运行速度可达最先进MobileNetV2架构的1.5倍,或神经元搜索架构NASNet的2.4倍。在COCO库中,谷歌的模型超过了MobileNet达到了高准确率和高速级别,相比SSD300模型省去了35倍的计算成本。
谷歌科研人员表示,未来将会通过更多运算和优化任务来训练图像识别,并将其应用在语义切分等移动视觉任务中。
此外,这项实验的成功,依赖于高度发展的移动端边缘线下AI技术。在今年6月,苹果公布了一款加强版ML Core机器学习框架,谷歌在五月也公开了可帮助开发者在应用中定制TensorFlow Lite模型的ML Kit工具。
本文系青亭网翻译自:Venture Beat
| 留言与评论(共有 0 条评论) |