那片密密麻麻的LED就是用来同步的光束。两个圆柱体则是旋转的一字激光器。一个是X轴扫掠,另一个是Y轴扫掠。两个激光器有固定的180度相位差,也就是说,A亮的时候B不亮,B亮的时候A不亮。
而手柄和头盔上都有固定位置安装的光敏传感器:

这套系统的具体工作流程分为三步:
1、同步:LED灯板整体亮一次,手柄和头盔的传感器一起被照射,作为同步信号。
2、X轴扫描:横向的一字激光器照射手柄和头盔上的光敏传感器。
3、Y轴扫描:竖向的一字激光器照射手柄和头盔上的光敏传感器。
头显和控制器上安装了很多光敏传感器。在基站的LED闪光之后就会自动同步所有设备的时间,然后激光开始扫描,此时光敏传感器可以测量出X轴激光和Y轴激光分别到达传感器的时间。
换句话说,激光扫掠过传感器是有先后顺序的,因此头显上的几个传感器感知信号的时间存在一个先后关系,于是各个传感器相对于基站的X轴和Y轴角度也就已知了;而头显和手柄上安装传感器的位置已经提前标定过,位置都是固定的。这样根据各个传感器的位置差,就可以计算出头显和手柄的位置和运动轨迹了。
Light House的最大优势在于,它需要的计算量非常少。这就不像CV视觉系统那样需要先成像,然后通过软件将成像中的特征分辨出来,成像的细节越丰富,需要的图像处理能力就越高。Light House使用的仅仅是光敏器件,无需成像,也就不涉及到大量计算和图像处理,避免了性能损耗和不稳定的可能。
另一方面来说,计算量大往往也就意味着延迟会更高,而且无法经由嵌入式处理器来完成运算。而Light House因为运算量小,因此嵌入式系统可以自己计算和处理,再直接将位置数据传输到PC上,节约了大量耗费在传输和处理上的延时。
不过,虽然Light House是迄今为止体验最好的VR交互定位设备,但是因为激光对人眼安全照射功率的限制等问题,它能够覆盖的距离比较有限,大概也就是5M* 5M 见方的一个区域,并且不能有过多的遮挡物导致接收不到信号。并且这种设备的安装调试还是比较繁琐的,对于一般用户来说可能还是比较困难的。
未完待续。