现在,苹果公司对于AR是野心已经昭然若揭了。他们最新的
ARKit平台到时候将会按计划登陆
iOS 11系统,成为苹果整个AR计划的排头兵。而AR的未来显然并不在手机平台,苹果最终还是要过渡到眼镜类头戴式设备上去的,而本月曝光的一份苹果专利将再一次让我们一窥Apple AR的庐山真面目。
本专利描述了一种使用增强现实技术显示现实世界中的用户兴趣点的方法。例如在iPhone这类触屏设备上,我们可以用手指触击屏幕上显示的标志性建筑。这个概念当然不是全新的,我们在以前的专利书上也曾经见过,手机等设备通过摄像头拍摄并识别现实中的物体,通过比对数据库获得相关信息,然后显示在虚拟叠加层上,实现“增强”现实。现在的关键是,这套逻辑完全可以应用到AR眼镜上。
我们从专利给出的示意图也可以看出,用户戴上AR眼镜,然后可以使用手势与虚拟信息进行交互。这里至少需要两种技术,一种是拍摄并识别物体的技术,另一种是识别手势动作,确认用户的操作的技术。
专利书描述眼镜显示的图像会呈现半透明状,这是现有技术条件下的应用结果。用户在视野中能够看到各种兴趣点,然后用手指移动,确认自己的兴趣点的位置进行交互。当然以目前的技术,手指和图像会在移动过程中重叠,并且长时间使用并不感到舒服。
总的来说,这也不是什么非常新鲜的技术,或者说
微软HoloLens早就已经实现这样的操作,而
苹果也在专利中多次出现类似的描述。这个专利书的曝光主要是让我们更加确认苹果选择的AR交互方案采用手势交互的形式。现在,AR将逐渐从手机端开始起步,但最终仍然要过渡到HoloLens这种头显产品形态。