Я работаю над проектом для определения 3D-местоположения объекта. У меня две камеры установлены в двух углах комнаты, и я получил Фундаментальную матрицу между ними. Эти камеры внутренне откалиброваны. Мои изображения 2592 X 19443D-реконструкция до реального масштаба
К = [1228 0 3267 0 1221 0 0 1]
F = [-1.098e-7 3.50715e-7 -0,000313 2.312e-7 2.72256e -7 4.629e-5 0.000234 -0.00129250 1]
Теперь, как действовать, чтобы при заданной трехмерной точке в пространстве я мог получать точки на изображении, которые соответствуют одному и тому же объекту в комнате , Если я могу получить матрицы правых проекций (с правильной шкалой), я могу использовать их позже в качестве входных данных для функции traingulatePoints OpenCV для получения местоположения объекта.
Я застрял в этом, так как долгое время. Поэтому, пожалуйста, помогите мне.
Спасибо.
Если ваша калибровочная матрица камеры написана в ручном режиме, то есть 'K = [1228 0 3267; 0 1221 538; 0 0 1] 'в нотации Matlab, я думаю, что это очень неудобно. Размер вашего изображения равен «2592 x 1944», и главная точка калибровки камеры, которая обычно находится вблизи середины изображения, находится в позиции '(3267, 538)'. Я думаю, что ваша калибровка камеры неверна ... – who9vy