栏目分类
www644168.com您现在的位置: 主页 > www644168.com >
2019年09月20日美国专利局最新ARVR专利报告498888王
时间:2019-10-06

  )近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共30篇。更多专利披露请访问映维网专利板块进行检索,也可加入映维网AR/VR专利交流微信群。

  增强现实头显可以包括反射全息组合器,从而将来自光引擎的光线引导到用户眼睛,同时传输来自环境的光线。为匹配眼睛的视敏度,组合器和光引擎可以布置成投射具有不同视场和分辨率的光场。所述引擎可以包括激光二极管阵列,分布式波导,扫描镜和分层波导。光引擎可以包括用于聚焦光束的聚焦元件。

  近眼显示器包括含有一个或多个C板的多个Pancharatnam Berry Phase(PBP)光学元件,从而改善光学角度性能。PBP光学元件可以配置用于波束控制或用于将光线聚焦到一点。C板可以减少或消除由PBP光学元件引入的非期望偏振相移。PBP光学元件的双折射产生这种偏振相移。C板提供额外的偏振相移,并与PBP光学元件的偏振相移相反。

  专利描述了包括配置为输出图像光的电子显示器的近眼显示器。另外,近眼显示器包括多个Pancharatnam Berry Phase(PBP)光学元件,其与一个或多个圆形偏振器组合以改善光学性能。 PBP元件产生三个衍射级输出。在包括这种PBP元件的光学系统中,通常只使用三个衍射级中的一个,而另外两个属于非期望的衍射级输出,并且优选地保持在相对较低的强度。圆偏振器可以降低两个非期望的衍射级强度。

  专利描述了用于通过头显合成面部图像的系统和方法,如增强现实设备。头显的朝内向摄像头或许只能观察到面部的一部份。专利描述的方法可以至少部分地根据成像的面部构造来生成未成像面部部分的映射。头显可以接收面部一部分的图像,并使用所述映射来确定无法观察的面部部分构造。 头显可以组合观察到的部分和未观察到的部分,从而合成全脸图像。

  专利描述了一种利用数据/问题中的相关性来实现神经网络的结构学习的改进方法。专利发明涉及计算网络,更具体地讲,专利发明涉及配置为根据数据学习分层表示的神经网络。

  在一些实施例中,头戴式显示系统配置为执行神经学分析,并根据与神经病症相关联的环境触发来提供感知辅助。对于执行神经学分析,可以根据传感器接收的数据确定用户对刺激的反应,并确定与反应相关的神经病症。

  显示组件在选择位置显示虚拟对象,其中浏览虚拟对象的眼睛具有预期的注视方向。检测显示组件的变形。变形导致虚拟对象在变通的位置可见,其中眼睛改变了注视方向。虚拟对象可以显示在校正位置中,令注视方向比改变的注视方向更接近于预期的注视方向。

  专利描述了一种用于显示系统的基于深度的注视点渲染方法和系统。显示系统可以是增强现实显示系统,其配置为使用不同的波前发散来在多个深度平面提供虚拟内容。一些实施例包括确定用户眼睛的注视点。获取与第一虚拟对象相关联的位置信息。获取第一虚拟对象的分辨率修改参数。根据第一虚拟对象的位置信息和分辨率修改参数来识别渲染第一虚拟对象的特定分辨率。以所识别的分辨率渲染第一虚拟对象。

  专利描述了用于计算深度映射的系统和方法。一种方法包括使用摄像头捕获场景图像。所述方法同时可以包括分析场景图像,从而确定用于捕获运深度的多个目标采样点。所述方法同时可以包括根据多个目标采样点调整与低密度深度传感器相关联的设置。所述方法同时可以包括使用低密度深度传感器捕获多个目标采样点位置的场景低密度深度映射。所述方法同时可以包括根据场景图像和场景低密度深度映射生成场景的计算深度映射。

  深度摄像头组件(DCA)确定自己与对象之间的距离。DCA投射一系列正弦图案,并通过传感器捕获正弦图案的图像。DCA根据每个正弦图案的相移确定距离。传感器的每个像素包括多个电荷区,同时光电二极管在不同时间间隔累积的电荷存储在不同的电荷storage bin中。可以从不同的电荷storage bin中检索电荷以确定深度。

  专利描述了用于提供光线的光源组件。源组件包括源元件阵列和扫描镜组件。源元件阵列包括配置成发光的超发光二极管(SLED)阵列。 SLED阵列位于单晶片上。SLED阵列中的每个SLED可以在相同颜色通道中发光。系统可以存在多个SLED阵列,而每个SLED阵列在相应的单晶片上,并且每个SLED阵列与不同的颜色通道相关联(例如,一个是红色,一个是蓝色,一个是绿色)。扫描镜组件配置为将来自SLED阵列(和/或多个SLED阵列)的光线作为扫描图像光扫描至输出波导的入射位置。

  专利描述了一种分体式人工现实系统,其包括配置为向用户呈现内容的眼镜装置。处理器可通信地耦合至眼镜装置。手环装置包括配置成根据用户手部移动来确定位置信号的第一追踪传感器。手环装置可通信地耦合至处理器。处理器部分根据所述位置信号来确定用户手部的姿态。

  专利描述了一种分体式人工现实系统,其包括配置为向用户呈现内容的眼镜装置。处理器可通信地耦合至眼镜装置。所述分体式人工现实系统包含通信地耦合至处理器的手环装置。手环装置包括配置成根据用户手部移动来确定位置信号的至少一个传感器。深度摄像头组件通信地耦合至处理器,并且配置为将波形发射到用户环境。深度摄像头组件从环境反射的波形捕获多个光信号。处理器配置为部分地根据位置信号和多个光信号来确定用户手部相对于环境的位置。498888王中王

  一种用于控制交互式体验的方法包括,从计算设备接收推进交互式体验的本地控制输入,并向交互式体验提供本地控制输入,控制输入由与主要体验用户相关联的第一输入设备提供。与交互式体验相关联的视听内容通过网络提供给多个远程用户计算设备。计算设备接收启动控制共享的命令,并且通过网络从与远程用户相关联的第二输入设备接收远程控制输入。远程控制输入提供给交互式体验,令远程控制输入似乎是源自第一输入设备,第一输入设备依然与主要体验用户相关联。

  可穿戴图像显示系统包括头戴式组件,第一光引擎和第二光引擎,以及第一光学部分和第二光学部件。第一和第二光引擎分别产生第一和第二组光束,每个光束基本准直,使得第一和第二组光束分别形成第一和第二虚像。每个光学部件定位成分别将图像投影到用户第一只眼睛和第二只眼睛。第一和第二组光束分别指向第一和第二光学元件的内耦合结构。第一和第二光学部件的耦出结构分别将第一和第二组光束引导到第一眼睛和第二眼睛。光学部件位于光引擎和眼睛之间。

  专利描述的头显配置有传感器封装,所述传感器封装使得系统能够确定设备用户的投影注视点与虚拟现实环境位置的交叉点,从而支持以高精度放置虚拟对象。可以使用来自传感器封装的数据来应用物理环境的表面重建,从而确定用户在虚拟世界中的视图位置。来自视图位置的注视点射线向外投射,并且在射线与虚拟现实世界的交叉点呈现光标或类似指示符。根据用户输入,将虚拟对象放置在交叉点位置。

  专利描述了视频增强现实系统的视频降噪。头显包括显示单元;用于生成显示数据帧的摄像头;用于存储显示信息的前面帧的帧存储器;以及提供与摄像头,显示单元和帧存储器通信的运动处理器。运动处理器可以:识别当前显示数据帧中的感兴趣区域;将感兴趣区域与前面帧中的类似区域相匹配;旋转和转换匹配的感兴趣区域,从而令前面帧匹配当前帧中的感兴趣区域;平均匹配的感兴趣区域并生成感兴趣区域。

  可穿戴设备包含用于扫描物理环境的单维深度传感器,如LIDAR系统。可穿戴设备和深度传感器使用物理环境的扫描点生成点云结构以开发用环境负空间的蓝图。负空间包括永久结构(如墙壁和地板),其中蓝图将永久结构与临时对象区分开来。深度传感器固定在可穿戴设备中的静止位置,并根据用户的注视方向被动地扫描房间。在数天,数周,数月或数年的时间内,蓝图继续补充点云结构并更新其中的点。因此随着时间的推移,点云数据结构形成精确的环境蓝图。

  专利描述了一种提供实况混合现实会议的方法。所述方法包括从第一端点位置的摄像头接收直播视频流;生成包含视频流的混合现实视图;在第一端点位置的显示器渲染混合现实视图,并将混合现实视图发送另一个地理隔离的端点;接收定义边界区域的数据;使用定义边界区域的数据计算边界区域的真实锚点;使用真实世界锚点确定真实世界位置,并在所述位置渲染混合现实视图中的边界区域;根据内容对象相对于边界区域的位置,将不同的规则集应用至内容对象。

  生成会话专用标识符并将其发送到第二显示设备,第二显示设备将标识符发送到云服务,所述云服务返回至少一部分与标识符对应的映射数据集,从而加速第一显示设备的粗略重定位过程。1183九龙图库反倒让人觉得累赘。将返回的映射数据集拼接到第一显示设备的本地映射数据以创建集成映射,所述集成映射用于渲染一个或多个全息图。第一显示设备可包括处理器,可耦合至处理器的存储器,以及存储在存储器中并由处理器执行的特徵程序。

  专利描述的电子设备包含显示屏和摄像头。设备中的控制电路可以利用注视点追踪系统和其他传感器采集关于用户注视点的信息;可以通过分析现实世界来采集关于真实世界图像的信息;可以收集用户视力信息,例如用户敏锐度,对比敏感度,视场和几何失真;可以采集用户输入,如用户偏好和用户模式选择命令;并且可以采集其他输入。根据注视点信息和/或其他采集的信息,控制电路可以在显示器显示真实世界图像和补充信息。补充信息可以包括诸如图标,文本标签和覆盖在真实世界图像的图形增强内容。

  专利描述了一种允许用户将手持便携式电子设备与单独的头戴式设备耦合和分离的系统和方法。便携式电子设备可以物理耦合至头显设备。便携式电子设备和头显设备可以彼此通信和操作。可以允许每个设备将其功能和/或服务扩展到另一个设备,以便增强,增加和/或消除头显设备和便携式电子设备之间的冗余功能。

  自由视点视频是用户可以任意改变视点位置或视线方向的视频。当用户使用头显查看自由视点视频时,可以通过改变视点位置或视线方向来向用户提供相关空间体验。专利描述的技术可用于自由试点视频。专利描述的信息处理组件包括:配置为根据位置信息获取位移信息的位移信息获取单元;配置为执行控制的输出控制单元。

  专利描述的方法包括:记录从执行游戏第一会话产生的游戏元数据,其中第一会话的执行由第一用户使用第一头显驱动;将游戏元数据发送到客户端设备;追踪第二头显的运动;客户端设备使用游戏元数据执行游戏第二会话以重建游戏事件,其中第二会话的执行基于第二头显的追踪运动。

  专利描述了一种能够渲染增强现实内容的可穿戴设备。AR可穿戴设备的主要目的是从视频流或视频游戏中解析并选择性地显示所需的平视显示内容。AR可穿戴设备允许用户在显示器的一个或多个指定部分配置和显示各种内容。

  虚拟现实系统支持改进的交互式控制过程/服务。所述交互式控制过程/服务包括检测与虚拟现实环境相关联的控制器移动;根据移动确定旋转角度;确定与移动相关联的力的大小;确定VR环境中的路径;对应于旋转角度和力的大小,在VR环境中投射路径。

  用于向非头显用户提供头显用户图像的方法包括:接收用户未佩戴头显时的用户第一图像,其包含用户的面部特征;接收用户佩戴头显时的用户第二图像,其包含捕获用户面部特征的一部分。将在第二图像中捕获的面部特征轮廓映射到在第一图像中捕获的对应面部特征轮廓,从而生成图像叠加数据。图像覆盖数据传输到头显,并通过安装在头显前端的第二显示屏进行显示。

  专利描述的信息处理组件包括:获取单元和输出控制单元。获取单元配置为获取关于用户的运动信息;输出控制单元配置为根据运动信息和虚拟对象控制图像的显示。

  专利描述的装置可根据包括视频和音频信号中的至少一个的内容来配置虚拟角色。所述装置包括编辑单元,其配置所述内容中的一个或多个事件,对一个或多个进行分类,并为内容生成事件轨迹,其中事件轨迹包括与相应时间相关联的一个或多个分类事件。所述装置同时包括选择单元,其配置为对应于事件轨迹的相应分类事件选择虚拟角色的配置。所述装置同时包括输出生成器,其配置为生成控制数据并响应于所选择的配置来配置虚拟角色。

  专利描述的系统,装置和方法可以用于渲染增强现实和虚拟现实环境信息。更具体地,专利描述的系统,装置和方法可以提供选择性地抑制和增强N维环境的VR/AR渲染的方式。所述系统,装置和方法可以通过关注特定反馈信息,同时抑制来自环境的其他反馈信息来深化用户的VR/AR体验。

  风险提示:文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担




友情链接:

Copyright 2018-2021 主页 版权所有,未经授权,禁止转载。