亚马逊的Alexa助手拥有许多技能 - 超过50,000,最后统计。如果您不确定从哪里开始,那么很难发现新的,但幸运的是,西雅图公司的科学家们正在解决人工智能(AI)问题。
在今天早上的博客文章中,亚马逊Alexa AI部门的数据科学家Young-Bum Kim详细介绍了机器学习系统,该系统自动选择最佳技能来处理特定请求。最近对其进行的修改 - 其结果将在本周于布鲁塞尔举行的2018年自然语言处理经验方法会议上提出 - 显着减少了错误。
正如金解释的那样,该模型包括两个神经网络,或模拟大脑中神经元行为的数学函数层。
第一个 - 被称为“短名单” - 产生可能适合给定请求的候选技能列表,同时考虑已经与请求者的Alexa帐户相关联的技能。(Kim指出,链接是偏好的强大推论。)同时,“关注机制”动态地为每个链接技能赋予权重,修改其中任何一个将进入候选名单的概率。
第二个使用更详细的信息 - 包括技能开发人员是否指出他们的技能能够在元数据中执行哪些操作 - 来选择这些技能。
此前,Alexa研究人员对端到端的短网络进行了培训; 网络的每个组成部分都是根据它对输出准确性的贡献来评估的。但是,新改进的AI模型还会在确定概率时考虑预期的技能 - 即,在用户请求某事时调用的链接技能。Kim写道,因此,当用户打算使用时,网络现在可以更可靠地选择链接技能。
为了测试改进的AI系统的稳健性,Alexa AI团队测试了三个不同的版本,这两个版本使用两个不同的函数来生成应用于链接技能的权重 - softmax,其生成的值为0到1之间必须总和为1的权重,以及sigmoid,它也产生从0到1的权重,但对它们的总和没有限制。(以前版本的候选名单神经网络专门使用softmax。)
Kim写道,这三个表现最佳的模型在制作三种候选技能的候选名单时,将错误率降低了12%。
亚马逊对AI的使用不仅限于技能选择。它的上下文遗留模型允许Alexa理解“多转话语” - 本质上是明确代词参考的后续请求(例如,“Alexa,什么是阿黛尔的第一张专辑?”“Alexa,播放它。”)一个单独的AI系统允许亚马逊的Echo扬声器识别多达十个不同的用户语音。此外,早在去年11月,亚马逊的Alexa团队表示,它已经开始分析用户的声音,以识别情绪或情绪状态。
这只是冰山一角。8月,亚马逊的Alexa机器学习团队在关键语音识别模型脱机方面取得了进展。在9月举办的硬件活动中,西雅图公司展示了Hunches,它主动推荐基于连接设备和传感器数据的行动,以及耳语模式,以更安静的方式响应低声说话。音。(本月在美国推出的耳语模式)
文章来源:xixi.ai
| 留言与评论(共有 0 条评论) |