我正在尝试使用Wikitude Native API
编写一个Android应用程序。我看到了示例代码并构建了imageTracker。我想在互联网上与其他.obj
一起在识别的图像上创建一个customView。任何人都可以给我一些想法或示例代码。
我现在了解的是,我应该将strokedRectangle更改为我的objectLoader,并将其放入glRenderer.setRenderablesForKey
中。 objectLoader应该扩展Renderable。但是,接下来我该怎么办?
public void onImageRecognized(ImageTracker tracker, final ImageTarget target) {
Log.v(TAG, "Recognized target " + target.getName());
StrokedRectangle strokedRectangle = new StrokedRectangle(StrokedRectangle.Type.STANDARD);
glRenderer.setRenderablesForKey(target.getName() + target.getUniqueId(), strokedRectangle, null);
}
答案 0 :(得分:0)
Wikitude本机SDK本身没有使用增强渲染的概念。所有相关代码(StrokedRectangle
,Renderable
,Renderer
等)仅是示例应用程序层的一部分,这意味着您可以删除所有代码并在执行时实现呈现觉得合适。这些类仅用于说明如何实现渲染。
最终,您所需要做的就是从Wikitude SDK接收视图矩阵和视场,并将其用作渲染输入。您将需要从后者创建一个投影矩阵,示例代码也将对此进行演示。
如果您需要实施方面的其他帮助,我很乐意在Wikitude论坛上进行广泛的讨论。在我看来,Stackoverflow似乎不是解决此类支持问题的适当位置。