iOS 12 隐藏大功能:用 ARKit 2 实现精确眼动追踪

映维网,国际权威虚拟现实(VR)信息平台,提供最快、最全、最有价值 VR 信息资讯!

文章相关引用及参考:映维网

利用 iPhone X 的原深感摄像头来检测用户注视点

(映维网 2018 年 06 月 26 日)尽管苹果没有在 WWDC 大会上进行演示,但映维网认为 iOS 12 最酷炫的功能之一是通过 ARKit 2 实现的眼动追踪。苹果正在允许开发者利用 iPhone X 的原深感摄像头来检测用户注视点在屏幕上的位置。

在 iOS 12 开发者测试版公布的数个小时后,多个演示应用程序已经利用起了这项技术。技术的精确性给人留下了深刻的印象,而因为苹果原深感摄像头的工作原理,这项技术在黑暗房间中的表现与在日光下的表现一样好或者是更好。Assistive 技术同样存在令人印象深刻的应用,即使不用双手,用户都能通过注视点和眨眼来导航 iOS 和使用应用。

就表面看来,这对消费者而言是全面的利好。事实上,在看完演示作品后,映维网却十分不解为什么苹果不在 WWDC 大会上演示这项技术。除了目前仅限于 iPhone X 之外,这在很多方面都是突破性的进步。

目前,ARKit 应用需要征求访问摄像头的权限,但眼动追踪超出了大多数人对手机摄像头的能力认知。

文章《iOS 12 隐藏大功能:用 ARKit 2 实现精确眼动追踪》首发于 映维网。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();