目前我们常见的体验形式是,各式各样的AR手机应用,它们通常需要我们提供手机的相机使用权限,这些应用通过对相机中得到的实际场景信息进行识别,将现实场景中的信息体与程序中内置的特征物进行比对,如果比对成功,则将相应的模型或者视屏叠加到相机中的实际景象中。
显然,真正从0开始实现一个AR功能,我们需要熟知图形学的底层知识,在这个提倡开源的时代,任何功能都从0开始开发显然是不明智的。
以下的步骤,为了节省篇幅,我这里不太希望描述太多过程化的东西,会着重描述一下需要注意的点,大多数都是我在学习过程中遇到过的问题。如果小伙伴们在某些步骤卡壳了,及时百度哦。
Key,输入我们即将开发的项目名称,添。名称可随意定义,我由于个人习惯,将应用名称定为VuforiaARTest。
以上项目中我还添加了识别图片,叠加视屏的功能。这会在下一篇博客中提到,小伙伴们可以先下下来看看。
由于我也是正在学习,如果上述过程有什么错误的地方,希望小伙伴们艾特我一下,如果网盘链接失效了,请提示我更新。
vuforia开发安卓APP,成功实现了识别图像显示模型的功能,打算进一步实现安卓设备触屏滑动,控制模型的旋转以及缩放的功能。前期测试的时候,使用Unity,新建camera,通过脚本控制摄像机,能够实现模型的旋转与缩放。
但是,使用vuforia的开发包进行AR开发的时候,直接将脚本拖到camera,结果失败,无法识别显示模型,目前的解决方案是,将脚本附加在模型上,可以实现3D模型的控制,但我觉得这种方法觉得不太好,改变了模型自身的参数。
请教大神,如何用camera进行控制,望大神解答!