眼动追踪对于VR设备来说不是什么新鲜事,Meta的Quest Pro就搭载了该功能,HTC的VIVE也有相应的眼动追踪配件,至于新近推出的苹果Vision Pro,就更是把眼动追踪作为基本交互方式。于是问题就回到Meta身上:为什么最新的Quest 3没有这个功能呢?
根据MIXED的报道,在Meta CTO Andrew Bosworth近期的Instagram AMA(Ask Me Everything)中,这个问题终于得到了回答。
“如果你回看Quest Pro的话,确实在眼动追踪上面会有一些原始成本,比如说额外的摄像头、照亮眼球以便于追踪瞳孔方向的光源等组件。但要知道的是,系统上的开销也很大,你要有额外的算力去运行这一切。”
“运算注视点渲染这一功能实际上消耗也不少,你必须确保省下来的资源足够多才能抵消运算的影响。”Andrew Bosworth如此表示道。
Vision Pro的眼动追踪组件,由红外摄像头和LED组成
另外,他还提到了在Pancake镜组上实现眼动追踪带来的全新挑战:“值得注意的是,我们目前的透镜,也就是我们的Pancake镜组,跟我们之前更传统的透镜相比带来了更多的挑战。苹果通过透镜解决了这个问题,但这也是为什么他们只支持内插镜片而不能戴眼镜使用,另外,内插镜片也不是适用于所有的处方类型(这里可以理解为有度数限制)。所以,在眼动追踪这块是有很多取舍权衡之处的。”
不过Andrew Bosworth同时对未来感到乐观:“这(眼动追踪)绝对是我们会继续关注和推动的项目之一。”另外,Meta CEO扎克伯格也在近期表示他们未来会把眼动追踪功能带回来,但他并没有提及会在哪个头显上实装。
音乐系魔法使教授 02-20 08:50 | 加入黑名单
支持(0) | 反对(0) | 举报 | 回复
2#
welsper博士 02-19 14:43 | 加入黑名单
也就是说目前还是算力问题
支持(0) | 反对(0) | 举报 | 回复
1#
提示:本页有 2 个评论因未通过审核而被隐藏