2015-03-04 8 views
1

Моя цель - создать единое трехмерное облако точек на основе двух пар изображений (AB, BC) и их проекционных матриц. Каждое изображение происходит от одной камеры (а не видео) с 3 различными позициями.Объединение карты глубины или слияние Point Cloud

Я использую «стандартный процесс»: точечное сопоставление (просеивание или серфинг), сохранение единства, поиск положения, выполнение корректировки связки ... исправлений изображений. До сих пор все работает хорошо.

Далее я использую функцию «несоответствие» функции Matlab для создания двух карт несоответствия, по одному для каждой пары изображений. Далее я создаю 2 отдельных 3dpoint-облака, по одному для каждой пары изображений, используя матрицы проекций.

Но как я могу объединить 2-х точечные облака из AB и BC. По-видимому, 3D-координаты зависят от параметров «DisparityRange» дисбаланса функции.

Я пропустил шаг в этом процессе?

Заранее спасибо за любую помощь Альваро

+0

Вы только что сказали, что создаете 3D-точки! Почему у вас есть вопросы о том, как это сделать? Его не совсем ясно. Если вы хотите знать точки в 3D с релистическими единицами, вам нужны внешние и внутренние параметры камер. Иначе вы можете сделать их –

+0

Я могу создать облако точек для каждой пары изображений. Но когда я слил 2-точечное облако, результат не очень хорош. – alvaro562003

+0

Какой метод вы используете для создания 3D-точек из 2D? Вы взглянули на этот пост: http://stackoverflow.com/questions/16295551/how-to-correctly-use-cvtriangulatepoints? В основном посмотрите метод, используемый для получения 3D-poitns из 2D сопоставленных poitns и матриц проектирования –

ответ

0

решена. Проблема заключалась в том, что я обрабатывал широкоформатные стереоизображения, как если бы они были короткоосновными. Фатальная ошибка!

 Смежные вопросы

  • Нет связанных вопросов^_^