这个问题在玩leap的时候就感觉到了,单凭画面的指示很难从交互层面提醒用户是进行了有效操作。那么所谓的有效、高效、可预知、可快速修改就是没法实现的。所以我认为需要从界面显示和交互设备两方面出发,结合功能设计来共同实现。
1,确立界面设计方向
把界面功能分解成镜头上的HUD,和功能具体的界面。
2,增加功能接触的视觉反馈
例如接触功能(代表功能的各种模型)是,通过增加物体边框闪烁等视觉效果来证明两者接触,实现功能选择。用后续动作来操作功能。
实际上从kinect的方案来说,交互是一件费力的事情,因为kinect将动作投射到两位空间,有保留了深度操作。所以似识别精度不适用于交互,只使用与识别。但是vive的操作感受就非常好,抓取和深度都非常灵敏,如果交互上进行简单的升级,那么可以非常好的提升整体的操作感受。
3,增加交互设备的操作和反馈
随着htc的vive的在圈子里的流行,google的新VR设备指标的发布。无论高端VR设备还是基于手机的VR设备,手持式VR控制器估计会成为下半年的主流话题。目前来说要有效的在VR环境下进项操作,要操作范围和佩戴方式进行调整,并且增加反馈。
首先要变更手持设备的佩戴方式,现在的方式都是“持有”,手部需要抓持设备进行操作。对于通过按键进行操作的vive来说需要一个简单的学习就可以满足操作,对于google的新交互设备来说来能就是个问题。所以我建议将这类设备挂在手掌上(如果可以挂在手背上会更好),通过“抓握”来激活选择。
其次增加震动。当选择到功能的时候通过震动来通知使用者发生了选择(碰撞),这样我们就可以在虚拟世界恢复一小部分肢体的感知效果了。甚至可以再不同的物体发生碰撞的时候,通过不同频次、不同强度的震动来提醒用户。
这样就实现了一部分给予肢体在虚拟空间对功能的选择和交互了。这样我们也算实现了一点在虚拟空间对深度的操作。