Как настроить захват видеокадров с использованием растровых данных
Я реализую приложение дополненной реальности для Android с использованием Flash. Чтобы приложение работало на моем телефоне Android (nexus One), также должна быть активирована камера телефона. Таким образом, мне нужно 2 слоя: один для фона, который является подачей камеры моего телефона, и другой поверх него, который в данном случае является видом с away3d.
Поэтому, установив объект BitmapData для хранения информации о самом последнем кадре веб-камеры, я могу сделать эту работу.
Если я использую библиотеку papervision3D и FLARToolkit, мы настраиваем BitmapData, используя следующую часть кода, найденную в этом видеоуроке:
//import libraries
import org.libspark.flartoolkit.core.raster.rgb.FLARRgbRaster_BitmapData;
import org.libspark.flartoolkit.detector.FLARSingleMarkerDetector;
private function setupCamera():void
{
vid = new Video(640, 480);
cam = Camera.getCamera();
cam.setMode(320, 240, 10);
vid.attachCamera(cam);
addChild(vid);
}
private function setupBitmap():void
{
bmd = new BitmapData(640, 480);
bmd.draw(vid);
raster = new FLARRgbRaster_BitmapData(bmd);
detector = new FLARSingleMarkerDetector(fparams, mpattern, 80);
}
private function loop(e:Event):void
{
if(detector.detectMarkerLite(raster, 80) && detector.getConfidence() > 0.5)
{
vp.visible = true;
detector.getTransformMatrix(trans);
container.setTransformMatrix(trans);
bre.renderScene(scene, camera, vp);
}
else{
vp.visible = false}
}
catch(e:Error){}}}}
Тем не менее, для реализации моего приложения я использую движок Away3D и FLARManager, и способ, которым я это делаю, сильно отличается. Я реализовал следующий код, но единственное, что он делает, это просто показывает Flash Camera в передней части 3D-вида, и я не могу проверить, работает ли мое приложение или нет, так как оно не показывает мне 3D-объект, когда я поместите маркер перед экраном.
Мой код:
//Setting Up Away3DLite Camera3D
import com.transmote.flar.camera.FLARCamera_Away3DLite;
private var camera3D:FLARCamera_Away3DLite;
this.camera3D = new FLARCamera_Away3DLite(this.flarManager, new Rectangle(0, 0, this.stage.stageWidth, this.stage.stageHeight));
//Setting Up the bitmapData
private function bitmap():void
{
c = Camera.getCamera();
c.setMode(320,240,10)
this.v.attachCamera(c);
addChild(this.v);
bmd = new BitmapData(640,480);
bmd.draw(this.v);
}
Не могли бы вы помочь мне выяснить, как я могу объединить эти два?
Я буду очень признателен за любые советы, которые я могу получить от вас.
Спасибо
1 ответ
Чтобы изолировать вашу проблему, я постараюсь разбить эти две вещи и убедиться, что каждая часть работает в первую очередь. Звучит так, будто у вас работает камера, попробуйте нарисовать куб или что-нибудь в 3D (без AR). Затем попробуйте реализовать AR, но сделайте что-нибудь простое, например, отследить что-то или сделать объект видимым или невидимым. Тогда начните объединять их.