永远年轻,永远热泪盈眶。

optimization method

最小二乘法
非线性:最速下降法、牛顿法、高斯牛顿法(GN)、列文伯格-马夸尔特(LM)
线性:QR分解、乔姆斯基分解法求解(Cholesky)、奇异值分解(SVD)
一.最小二乘问题

​ 通常可以表述为,通过搜集到的一些数据(获取得到的样本),对某一个模型进行拟合,并尽可能的使得模型结果和样本达到某种程度上的最佳拟合,在SLAM中亦可以看作为观测值和模型估计值之间的误差;

1.线性最小二乘与非线性最小二乘的关系

线性:直接对目标函数求导,令其等于零,以此求得极值,比较后得到全局最小值。

非线性:由于函数复杂无法直接写出导数形式,无法直接得到全局最小值。退而求其次,从一个初始估计值通过不断迭代寻找局部最小值,不断寻找梯度并下降。

2、梯度下降法

保留一阶:最速下降法。梯度下降法值保留泰勒展开的一阶项(只有雅克比项J),

保留二阶:牛顿法。牛顿法保留到二阶项(有海森矩阵项H)。

二、非线性最小二乘(高斯牛顿、LM)

高斯-牛顿法:将非线性函数f(x)进行一阶泰勒展开,缺点:需要保证H矩阵为正定的,但是在实际中H矩阵很有可能是半正定的或者其他情况

LM法:基于信赖区域理论,是由于高斯-牛顿方法在计算时需要保证矩阵的正定性,于是引入了一个约束,从而保证计算方法更具普适性。

LM引入了阻尼因子来调节算法的特性

该因子的作用有:

当阻尼因子大于0,能保证系数矩阵正定,从而确保迭代的下降方向
当阻尼因子很大时,退化为梯度下降法;
当阻尼因子很小时,退化为高斯牛顿法,从而使得接近解时快速收敛;