RGB相机动捕系列:相机标定(三.一、暴力重建)

@TOC

RGB相机动捕系列:相机标定(三.一、暴力重建)

一、概述

之前一篇文章中写了一篇 RGB相机动捕系列:相机标定(三、相机阵配准),其中 2.3中提到了红点三维重建,本篇将详细介绍一下红点重建的具体过程。

二、暴力匹配

2.1相机匹配

遍历所有相机,对相机进行两两相互匹配。由于已经对相机进行标定,可根据相机参数求出两相机的交会角。去除交会角过小和过大的匹配对。因为当交会角过小时,会导致重建深度的精度不够,微小的视察会产生较大的深度歧义。当交会角过大时,重建时相邻像素之间视差值过大,导致相邻像素可能被错误的匹配。

2.2红点数据暴力匹配

根据相机参数计算出基础矩阵F,根据极线关系 l=F*m,其中l为极线,F为基础矩阵,m为坐标点。可计算第一张影像上的点到极线的几何距离。当距离小于阈值的时候则添加匹配点对。

2.3重建3D

完成匹配对之后,通过三角测量法重建出3D点,并通过计算重投影误差去除误差较大的点数据。

三、融合3D

3.1通过2D-3D关系进行融合

通过上述步骤可重建出粗略的3D点,现在利用2D点和3D点的关系对数据进行融合。
1、将所有共同2D点的生成的3D数据进行线性融合,并计算重投影误差的最大值,如果最大值小于阈值则预设为可融合3D点。
2、构建所有可融合3D点数据的图结构,并搜索联通分量,统计出所有可融合的3D点数据,计算可融合3D点的中心坐标。
3、根据融合中心计算3D到2D的重投影误差,对于多个2D到3D关系的2D点,保留重投影误差最小的2D点,其余全部删除。
4、去除重复2D数据后对清理观测值少于阈值的3D点。

利用3D点的空间位置进行融合搜索

对于剩下的3D点,计算出每个3D点的最近邻点距离和其他所有点到这个点的距离的均值,如果最小值远小于平均值则进行融合。重复次步骤直到没有可融合的点。

注。1

本文仅供学习参考,未经允许,拒绝转载或者用作他用。



RGB相机动捕系列:相机标定(三.一、暴力重建)
http://example.com/2024/02/22/相机标定(三.一、暴力重建)/
作者
sunTFly
发布于
2024年2月22日
许可协议