我正在使用 Flash 为 android 实现增强现实应用程序。为了让应用程序在我的 Android 手机(nexus One)上运行,还必须激活手机摄像头。所以我需要 2 层作为背景,它是我的手机摄像头的馈源,而在它上面的另一层是在这种情况下来自 away3d 的视图。
因此,设置一个 BitmapData 对象来保存最近的网络摄像头静止帧的信息,我可以完成这项工作。
如果我使用 papervision3D 库和 FLARToolkit,我们使用从本视频教程中找到的以下代码部分来设置 BitmapData :
//import libraries
import org.libspark.flartoolkit.core.raster.rgb.FLARRgbRaster_BitmapData;
import org.libspark.flartoolkit.detector.FLARSingleMarkerDetector;
private function setupCamera():void
{
vid = new Video(640, 480);
cam = Camera.getCamera();
cam.setMode(320, 240, 10);
vid.attachCamera(cam);
addChild(vid);
}
private function setupBitmap():void
{
bmd = new BitmapData(640, 480);
bmd.draw(vid);
raster = new FLARRgbRaster_BitmapData(bmd);
detector = new FLARSingleMarkerDetector(fparams, mpattern, 80);
}
private function loop(e:Event):void
{
if(detector.detectMarkerLite(raster, 80) && detector.getConfidence() > 0.5)
{
vp.visible = true;
detector.getTransformMatrix(trans);
container.setTransformMatrix(trans);
bre.renderScene(scene, camera, vp);
}
else{
vp.visible = false}
}
catch(e:Error){}}}}
但是,要使用 Away3D 引擎和 FLARManager 来实现我的应用程序,我可以理解,这样做的方式非常不同。我已经实现了以下代码,但唯一认为它只是在 3D 视图的前面显示闪光灯相机,我无法检查我的应用程序是否正常工作,因为它没有显示任何 3D 对象当我将标记放在屏幕前面。
我的代码是:
//Setting Up Away3DLite Camera3D
import com.transmote.flar.camera.FLARCamera_Away3DLite;
private var camera3D:FLARCamera_Away3DLite;
this.camera3D = new FLARCamera_Away3DLite(this.flarManager, new Rectangle(0, 0, this.stage.stageWidth, this.stage.stageHeight));
//Setting Up the bitmapData
private function bitmap():void
{
c = Camera.getCamera();
c.setMode(320,240,10)
this.v.attachCamera(c);
addChild(this.v);
bmd = new BitmapData(640,480);
bmd.draw(this.v);
}
你能帮我找出如何将这两者结合起来吗?
我将非常感谢我能从你那里得到的任何建议。
谢谢