在HTChtc vive3 中实现镜面反射,但是带上眼睛后,在镜面中看到是两个反射物体

還可輸入 200 個字元

    问题一:UGUI/NGUI觸发方式是鼠标点击界面而我想用手柄按键选择,UI该怎么去做呢
    问题二:如何保证UI图片的质量?有没有尺寸的要求、格式的要求目湔我使用的是Sprite Render组件
    问题三:如何在unity中获取头盔的位移?就是头盔移动的时候相机跟随移动(目前我用的是一个基站,只有rotation是同步的)

    0


    2. 无特殊要求但像素尽量高些即可
    3. 相机绑在头盔上就可以啦,正常位置也是会随着头盔移动的你需要在roomsetup时选择roomscale功能,而不是standalone
    0


    您好请问摄潒机怎么绑定HTC htc vive3虚拟头盔,我摄像机用的是SteamVR 里边的CameraRig
    0


    您好请问摄像机怎么绑定HTC htc vive3虚拟头盔,我摄像机用的是SteamVR 里边的CameraRig

    把htc vive3头盔绑在你的摄像机上
    0

版权声明:本文为博主原创文章遵循 版权协议,转载请附上原文出处链接和本声明

在物理实验室模块,为了体现虚拟现实的特性充实功能,打算实现kinect在VR环境中的模擬通过用户的手势,动作;得到一个返回值用来触发某些事件。即模拟kinect的运作方式处理图像中人体的运动手势,触发相应的事件

通过手柄的位置的位移来触发事件:

通过VRTK_DeviceFinder类,寻找有手柄返回位置等信息,具体实现:

在start函数里面赋值手柄的位置

在update中,当此模块运荇开始检测时。当按下手柄的trigger记录一个手柄的位置当trigger抬起时,记录一个手柄的位置得到两个vector3属性的值。可以计算这两个值分别在xy,z方向上的分量

通过在三个坐标轴方向上的分量,可以判断此次手柄的移动轨迹是朝向什么方向的通过不同的方向触发事件。

但这种方式有很大的局限性只能将位移看作是一条直线,没办法处理更复杂的手势情况

下面提出的模拟方法是通过设置在指定位置一定数量嘚trigger,通过手柄的移动触发各个trigger。此时我们可以得到手柄移动的路径通过这种路径的形式来记录用户的手势运动,触发事件

目前做了┅个demo,还没在VR中实现demo中,我设置了六个cube作为trigger给予相应的标签。并赋予不同的编号

sphere的脚本上,定义了一个动态数组用来存储路径。烸当sphere与一个trigger触发时记录此trigger的标号。当按下某一个键位输出数组中存储的trigger路径。

我是通过将路径值转化为string类型通过if语句与实现定义的倳件的出发路径做判断,以达到触发事件的目的

此种方式,可以比较灵活的设置trigger的位置根据精度设置数量;同时在交互的过程中,可鉯记录更复杂的路径信息做更多的手势。

发布了16 篇原创文章 · 获赞 3 · 访问量 2万+

版权声明:本文为博主原创文章遵循 版权协议,转载请附上原文出处链接和本声明

直接导入CameraRig后运行项目之后看不到手柄
添加完成后重新运行后即可看到手柄。
————————————————
如果看到手柄距离眼睛太远则调整camera[eye]的参数Far。
Clipping Planes: 剪裁平面摄像机开始渲染与停止渲染之间的距离。
Near:近点摄像机开始渲染的最近的点。
Far:远点摄像机开始渲染的最远的点。

发布了53 篇原创文章 · 获赞 34 · 访问量 1万+

我要回帖

更多关于 htc vive3 的文章

 

随机推荐