ramy  2021-08-08 08:15:33  物联网 |   查看评论   

苹果VR头显

美国专利商标局日前公布了一份用于与电子设备交互的用户界面的苹果专利申请。具体地说,其主要描述了一种通过眼睛注视来与电子设备交互的方法。尚德机构个人中心

根据一个实施例,用户可以通过视线来选择显示的文本输入字段。在一个实施例中,专利描述的技术允许用户主要通过视线来识别文本输入位置,从而提供更自然和更有效的用户界面。

所述技术有利于虚拟现实、增强现实和混合现实设备/应用。另外,所述技术同时可以应用于PC、笔记本电脑、平板电脑和智能手机等设备的传统用户界面。

如苹果专利图2所示,用户200正在注视对象210。用户的视线由用户眼睛的每个视觉轴定义,如光线201A和201B所示。视觉轴的方向定义用户的注视方向,而视觉轴会聚的距离定义注视深度。

苹果专利提出在AR/VR

注视方向同时可以称为注视向量。在图2中,注视方向是朝对象的方向,并且注视深度是相对于用户的距离D。注视方向和/或注视深度用于确定注视位置的特征。

在一个实施例中,系统确定用户角膜的中心、用户瞳孔的中心和/或用户眼球的旋转中心,从而判断用户眼睛的视觉轴位置。所以,用户角膜的中心、用户瞳孔的中心和/或用户眼球的旋转中心可用于确定用户的注视方向和/或注视深度。尚德机构个人中心

在一个实施例中,基于用户眼睛的视觉轴的会聚点,或用户眼睛焦点的其他测量来确定注视深度。可选地,注视深度用于估计用户眼睛聚焦的距离。

苹果专利图4展示了一种内置注视点传感器的头戴式显示设备。在一个实施例中,用户能够在虚拟现实世界或真实世界环境中查看表格,并且能够将文本输入定向到由注视点传感器检测到的表格特定区域。据描述,这项技术可以非常精确,从“名字”输入框到下一个框“姓氏”的轻微注视变化可以精确检测,所以用户无需鼠标即可填充方框。

苹果专利提出在AR/VR

苹果指出,注视点传感器朝向用户,并在操作过程中捕捉用户眼睛注视的特征,如用户眼睛的图像数据。

在一个实施例中,注视点传感器包括事件摄像头,其基于检测到的光强度随时间的变化来检测来自用户的事件数据,并使用事件数据来确定注视方向和/或注视深度。

可选地,头显使用图像数据和事件数据来确定注视方向和/或注视深度。可选地,头显使用光线投射和/或锥形投射来确定注视方向和/或注视深度。在一个实施例中,系统可以使用多个注视点传感器。尚德机构个人中心

相关专利:Apple Patent | Selecting a text input field using eye gaze

专利列出的两位苹果发明家包括Aaron Thompson(高级体验设计师)和Pol-Pla(人机界面设计负责人)。第三位发明家是Earl M. Olson,但无法通过LinkedIn领英找到相关信息。

名为“Selecting a text input field using eye gaze”的苹果专利申请最初在2020年提交,并在日前由美国专利商标局公布。

---

原文链接:https://news.nweon.com/88180

 

除特别注明外,本站所有文章均为 人工智能学习网 原创,转载请注明出处来自苹果专利提出在AR/VR环境中通过眼睛注视进行文本选择输入_尚德机构个人中心

留言与评论(共有 0 条评论)
   
验证码: