2012-09-16 16 views
7

¿Es posible utilizar un par de cámaras web (o cualquier cámara para ese caso) para obtener las coordenadas x, y y z de un objeto y luego rastrearlas tal vez usando OpenCV mientras se mueve por una habitación.Cómo colocar un objeto en el espacio 3D usando cámaras

Estoy pensando en ello en relación con la localización y el control de un helicóptero RC.

+1

¿Está familiarizado con [Kinect] (https://en.wikipedia.org/wiki/Kinect)? –

+0

@GregHewgill También se me ha pensado al principio sobre un kinect * ([aquí está openKinect lib] (http://openkinect.org/wiki/Main_Page)) *. Pero como ahora entiendo, el kinect es un dispositivo completamente diferente, por lo que no puedes simplemente trabajar, p. con múltiples cámaras WEB. Mucha gente tiene cámaras WEB y estas son baratas, pero no conozco personas que incluso tengan un kinect (ni siquiera conozco a los que tienen XBox). Por lo tanto, usar un kinect limita severamente el uso de una aplicación con una comparación con solo una cámara. –

Respuesta

6

Sí. Necesita detectar puntos en ambas imágenes simultáneamente y luego hacer coincidir los pares que corresponden al mismo punto en la escena. De esta forma, tendrá el mismo punto representado por diferentes espacios de coordenadas (cámara 1 y cámara 2).

Puede comenzar here.

1

Si el uso del sensor de profundidad es aceptable, entonces puede ver cómo ReconstructMe lo hace. De lo contrario, eche un vistazo a this búsqueda de google.

Cuestiones relacionadas