我正在使用Flash实现Android的增强现实应用程序。为了使应用程序在我的Android手机(nexus One)上运行,还必须激活手机摄像头。所以我需要2层一个用于背景,这是我的手机摄像头的馈送,另一个在它的顶部,这是在这种情况下from3d的视图。
因此,设置一个BitmapData对象来保存最新的摄像头静止帧的信息,我可以使这个工作。
如果我使用papervision3D库和FLARToolkit,我们使用this video tutorial中的以下代码部分设置BitmapData:
//import libraries
import org.libspark.flartoolkit.core.raster.rgb.FLARRgbRaster_BitmapData;
import org.libspark.flartoolkit.detector.FLARSingleMarkerDetector;
private function setupCamera():void
{
vid = new Video(640, 480);
cam = Camera.getCamera();
cam.setMode(320, 240, 10);
vid.attachCamera(cam);
addChild(vid);
}
private function setupBitmap():void
{
bmd = new BitmapData(640, 480);
bmd.draw(vid);
raster = new FLARRgbRaster_BitmapData(bmd);
detector = new FLARSingleMarkerDetector(fparams, mpattern, 80);
}
private function loop(e:Event):void
{
if(detector.detectMarkerLite(raster, 80) && detector.getConfidence() > 0.5)
{
vp.visible = true;
detector.getTransformMatrix(trans);
container.setTransformMatrix(trans);
bre.renderScene(scene, camera, vp);
}
else{
vp.visible = false}
}
catch(e:Error){}}}}
然而,要实现我的应用程序我使用Away3D引擎和FLARManager,这样做的方式是非常不同的,因为我可以理解。我已经实现了以下代码,但唯一认为它只是在3D视图的前面显示Flash摄像头,我无法检查我的应用程序是否正常工作,因为当我没有向我显示任何3D对象时将标记放在屏幕前面。
我的代码是:
//Setting Up Away3DLite Camera3D
import com.transmote.flar.camera.FLARCamera_Away3DLite;
private var camera3D:FLARCamera_Away3DLite;
this.camera3D = new FLARCamera_Away3DLite(this.flarManager, new Rectangle(0, 0, this.stage.stageWidth, this.stage.stageHeight));
//Setting Up the bitmapData
private function bitmap():void
{
c = Camera.getCamera();
c.setMode(320,240,10)
this.v.attachCamera(c);
addChild(this.v);
bmd = new BitmapData(640,480);
bmd.draw(this.v);
}
请你帮我看看如何将这两者结合起来?
我真的很感激你能从中获得任何建议。
谢谢
答案 0 :(得分:1)
为了解决你的问题,我会试着打破这两件事,确保每个部分都能先发挥作用。这听起来像你已经让相机部件工作,尝试只做一些3D(没有AR)绘制立方体或其他东西。然后尝试实现AR,但让它做一些简单的事情,比如追踪某些内容或使对象可见或不可见。然后开始组合它们。