永远年轻,永远热泪盈眶。

​ 为了实现多终端同步,花了一个小时,主要是卡在提交上了,现在的CSDN真的不能再看了,太水了,都是从别的地方复制粘贴过来,很难解决你的问题,所以还是需要去看官方的文档。

​ 用终端运行下列指令就可以将文档push到source分支里

1
2
3
git add .
git commit -m 'hexo source post'
git push origin source

​ 出现问题的就是最后一句,问题如下:

image-20191206213429776

​ 原因是在theme主题里也存在.git文件,所以会提示你:

image-20191206213335461

​ 所以在mac里,你要在finder里在theme目录下command+shift+.显示隐藏文件,然后把主题里的.git文件删除,然后就可以push进去了;

image-20191206213652923

​ 详细的可以参考:https://righere.github.io/2016/10/10/install-hexo/

目标3D精确模型已知(建立2D-3D对应关系):

点特征

  • P3P问题

    • 基于针孔成像模型

      • Gao的方法(opencv emgucv)
      • Kneip 的 P3P 算法
      • 直接线性变换 (DLT)
      • EP3P(王平)
    • 通用相机模型 (GID)

      • 用在基于鱼眼镜头的测量,基于全向视觉传感器的测量
      • GID 模型解决问题的复杂度通常会较高,而测量精度却较低。
  • PNP问题

    • 迭代优化求解策略

      • 当前算法研究

        • SoftPOSIT算法
        • 正交迭代算法(LHM 或 OI),LHM 方法是最为优秀的迭代求解 PnP 问题的方法
        • 基于 Levenberg-Marquardt 迭代求解的方法
      • 优缺点

        • 迭代法相比于线性求解的方法,求解精度和稳定性都要高很多。
        • 迭代法不是闭式解,还有陷入局部最 优的危险,这将导致最终得到的结果不是真实所求的位姿值
        • 迭代法对初值的选取比较敏感
        • 空间参考点比较少或者参考点近似奇异的情况下,迭代法的精度和稳定性都表现较差
    • 非迭代求解策略

      • 基本原理

        • 通过对成像模型合理参数化和变形, 构建可以用于最优化求解的非线性方程组,然后通过矩阵合成的技术(Gröbner 基的方法)求解非线性方程组,最终得到完整的位姿参数闭合解。
      • 当前算法研究

        • 2013年提出的ASPnP 方法和 OPnP 方法(目前最优秀的)

          • 采用四元数来表示旋 转矩阵,通过旋转矩阵参数化来表示平移向量,得到可以全局优化的目标函数来构成多项式方 程组,最后通过矩阵合成技术(Gröbner 基的方法)来求解多项式方程组,得到最终的位姿值。
        • 2015年提出的optDLS方法

          • 通过对 OPnP 方法中的 优化目标函数添加新的约束条件,减少了 OPnP 算法求解过程中解的个数
      • 优缺点

        • 抗干扰能力差
        • 位姿求解精度差
  • 依赖目标点纹理信息,易受纹理、光照、噪声等影响

线特征

  • P3L问题
  • PNL问题

    • 线性求解方法

      • 直接最小二乘位姿求解
      • 构建局部坐标系,求解局部坐标系与相机坐标系之间等变换关系
    • 非线性优化求解方法

      • 先迭代求解旋转矩阵,再求解平移矩阵
      • 引入同名点及高程平面约束

边缘轮廓特征

  • 对边缘轮廓离散采样,沿采样点法向方向搜索匹配带你,求解位姿参数
  • RAPID算法改进方向

    • 多特征融合
    • 稳健估计
    • 贝叶斯估计

      • 卡尔曼滤波

        • 适合于噪声满足高斯分布假设
      • 粒子滤波

        • 适合于目标作非线性运动且为非高斯随机过程多情况
  • 视觉伺服相关方法

2D特征描述

  • 基本思路:基于虚拟离散位姿参数,目标不同侧面等,将针对3D目标的位姿求解问题转换为若干2D图像之间的匹配问题,进而采用2D特征描述建立对应
  • 基于HOG特征的DPM方法
  • 采用MCMC采样方法对位姿参数进一步求精

深度学习

  • 方向1:将学习得到的2D深度特征描述用于离散位姿参数后的2D图像之间的匹配
  • 方向2:构建卷积神经网络,直接通过2D图像信息预测控制点图像坐标,进而建立2D-3D控制点对应,实现位姿参数求解

目标3D模型未知:

1.利用序列图像(或立体视觉)对目标进行重建,依据重建目标模型,采用绝对定向方法求解位姿参数,并利用光束平差方法对结果进行优化

2.转化为SLAM问题进行考虑

基于深度学习的位姿测量方法:

基于稀疏特征的方法

  • 从图像中提取兴趣点,用局部描述子来描述这些兴趣点,并匹配到数据库
  • 对纹理较少的物体识别较为困难

基于稠密特征的方法

  • 粒子滤波+回归森林获取位姿:遮挡情况下获取位姿
  • 运动参数+回归森林获取位姿:自由度运动参数估计
  • 边缘化深度图像的权重,只利用彩色获取位姿

基于模版匹配的方法

  • 用固定的模版扫描图片,寻找最佳的匹配
  • 通过卷积神经网络学习整张图片的描述子

设计合作目标

合作目标优化设计研究路线

  • 基于机器学习的合作目标优化设计路线

    • 存在的问题

      • 尚无具体的数学模型和训练模型
      • 尚无具体的训练数据集
      • 尚无相关的文献和工作出现
    • 可行性方案设计

      • 待补充。。。。。
  • 基于编码与多尺寸方案的合作目标路线

    • 依靠距离范围和精度需求进行尺寸设计(有具体的数学模型)
    • 在编码的需求进行合作目标编码(有多种方案可以参考,可在此方向上进行优化,即寻找复杂度与识别效率的平衡点)

      • 考虑提取圆的效率和提取矩形的效率
      • 考虑编码的抗干扰性和提取难易度
      • 考虑进行高精度提取的难度和编码的设计关系
    • 依靠经验进行特征点或线数量的选取

      • 尚未建立点数量和位姿求解精度与效率的平衡方式
      • 每种算法所需的特征点数也各不相同,难以找到一个统一的标准

具体实验实施方案

  • 1.将空间划分成区域,并添加足够的约束条件,加速迭代收敛性
  • 2.确定迭代规则,先点特征,对应采用点的3~4中算法;线特征,对应线的2~3中算法(实际工程中线的算法虽然精度高但实时性差,提取困难);点线结合特征;对应采用点线结合或者点的算法
  • 3.总结步骤2的数据,找出优化方向,建立最优化模型,即找出何种算法在何种构型的分布状态下在视角空间中存在最优解空间
  • 4.总结步骤3的数据,反推位姿估计方法,即构型具体是影响了位姿估计方法的哪一步骤导致位姿估计方法的失效
  • 5.综合步骤3和步骤4,总结出现有的优秀位姿算法稳定的视角空间和尺度空间,指导研发在视觉着陆各状态下的鲁棒位姿估计算法

6D姿态估计与三维重构领域

  • 主流的方法

    • 基于模板匹配的方法
    • 基于点云构建描述子的方法
    • 霍夫森林(vote based)
    • Object Coordiantes 回归法
    • end to end(基于端到端的神经网络)
  • 不需要目标的先验知识,依靠视觉和激光雷达

  • 大量方案从机器学习模型出发,通过SIFT提取特征点,将RGB数据的特征和点云的特征以一种合适的方式进行了整合

视觉目标跟踪

硬件设备

  • 英伟达TX2

    • GPU处理平台
    • 方便跑深度学习算法
    • 体积小,易安装在飞行平台上
  • 大疆妙算

    • 与大疆兼容性好,无缝连接云台和飞控
    • 定制的linux难用
  • 微型PC

    • 容易进行开发
    • 开发成本小

能够利用现有技术进行对合作目标进行识别、提取、定位,并且算法具有一定对稳定性和鲁棒性

  • 背景前景分割
  • 目标识别提取
  • 合作目标提取
  • 合作目标匹配

具体实施方案

  • 合作目标提取识别进展情况

    • 对比主流的开源检测方案

      • YOLO
      • SSD
      • mm-detection
    • 对比主流的开源目标跟踪方案

      • TLD
      • Siammask

控制任务

1.熟悉飞机的控制方案,能够利用大疆sdk对飞机进行控制;

2.建立合理的控制任务调度方案,能够实现跟踪与着陆的稳定切换;

  • 自主着陆策略的划分

    • 远距离搜索跟踪
    • 中远距离位姿估计
    • 着陆阶段高精度位姿估计
  • 传感器的数据融合

    • 视觉测量系统
    • IMU

3.掌握一定的控制算法,对视觉系统输出的坐标能够进行精确跟踪;

  • 轨迹控制

    • TLD控制
  • 姿态控制

    • 串级控制
    • 大疆OnbordSDK
  • 着陆控制

    • 位置环PID控制

实验设备

具体需要采购的设备

  • 大疆m210 RTK系列无人机
  • 大疆高分辨率可见光云台相机(Z30)
  • 大疆妙算2-C
  • 可控高精度三轴运动平台
  • 高精度合作目标加工

实验设备具体任务

  • 掌握大疆云台相机的各项参数和最大使用范围
  • 掌握大疆无人机整个系统的使用和飞机的调试
  • 制作能够模拟舰船的运动的三轴移动平台
  • 开发pc端的上位机系统能够监控实时的视觉处理结果和位姿解算结果,能够显示跟踪的轨迹等信息

每当翻开备忘录里的复盘记录,就会连续发出卧槽的感叹,这一个月过的咋就这么快,自己好像干了很多事,也好像啥都没干,唉,这该死的备忘录,就也该学会善待人了叭。

推荐Mathpix这个软件;

官网:https://mathpix.com/

基本上主流的环境都支持,可以截屏识别公式,然后转换成latex格式的,炒鸡方便;

image-20191204160000570

mac上面的mathtype用不了真的很难搞,不过可以用自带的Grapher用来编辑公式,缺点就是不能像mathtype可以嵌入word,但是可以以图片的形式插入;

image-20191204160259581

或者就用LaTeXiT,基本上也能满足公式编辑,图片插入word的要求;

image-20191204160501014

想要方便一点的话,还是早点改用LaTex,排版真香;

我在谁?我在那?我在干嘛?我接下来干嘛?

渐渐的,桌上的书不再是课本,不再是放不下的小说,取而代之的是矩阵分析、数值分析、非线性优化、视觉度量基础、机器学习……

很多困难和无助都是随机的涨落的一部分,付出足够多的时间和耐心,随机过程总会收敛到和付出相对的稳态。

基于目标特征的单目视觉位置姿态测量技术研究 —赵连军 中国科学院大学 201405

主要因素:

(1)标志器与相机的相对距离:X和Y方向上的测量误差与相机和靶标的相对距离成正比例关系;Z轴的测量误差与相机和靶标的相对距离的平方成正比;

(2)标志器(合作目标)的尺寸:标志器尺寸越大,误差越小;

(3)相机焦距、象元尺寸和电路噪声:相机的焦距越长,相机的量化误差越小;相机的象元尺寸越小,相机的量化误差越小;

(4)相机内参数标定误差和镜头像差:X和Y方向上的误差与焦距的标定误差没有直接关系;Z方向上的测量误差与焦距的标定误差成正比例关系;

(5)特征点的中心提取精度:相机的量化误差和镜头畸变引起的特征点成像位置偏移已确定,可以对特征点的质心进行亚像素提取,通过提高质心提取精度来补偿相机的量化误差,提高测量精度;系统的测量精度与提取质心位置精度成正比例关系;

(6)三点位置姿态解算算法

仿真结论:

(1)测量距离是影响测量精度的首要因素,且Z轴的测量误差呈现指数增长;

(2)X和Y方向上的测量误差与标志器的大小无关,Z方向上的误差与标志器尺寸成反比例关系,即大尺寸的特征点有助于提高特征点质心点提取精度,尤其是在测量距离较远时;

(3)相机内参数标定误差对X和Y方向上的误差为0;对Z方向上的误差和测量距离的比值与焦距的标定误差和焦距的比例相同,即焦距的标定误差为千分之一,带来的测量误差与测量距离的比例也为千分之一;

(4)特征点质心点提取精度是测量系统误差的最主要的来源

(5)位姿解算算法的误差在5m内为10(-8)量级

图像传感器技术:

硅材料传感器对红色和绿色这两种颜色通常很敏感,但对蓝色却不敏感;

硬件噪声来源于光电传感器、A/D转化器、

计算成像学:—高动态范围的 —高速帧率 —三维深度图 —焦平面再聚焦 —焦点扫描 —滚动快门 —全景拼接 —图像光照重置

深度感知的几种方法:

1.视差与混合视差;两个相机(立体、多视图立体和阵列照相机)位置之间的FOV上测量位移;

2.尺度图:特殊尺寸的颜色标签确定范围和位置;

3.聚焦的深度:带扫描聚焦的多帧图像;

4.有差别的放大率:使用不同的放大率采集两帧图像,构造一个基于距离的偏移;

5.结构光:多帧的模式投影;

6.飞行时间:高速光脉冲中包含可以测量反射光往返时间的特殊像素;

7.阴影偏移:在位置不同的两个光源之间测量两帧之间的阴影差;

8.模式扩张:在照相机镜头域并以不同的速率铺开的投影二维光斑模式;

9.光束跟踪:两个点光源安装在FOV的目标上以便跟踪;

10.光谱的焦点扫描:焦点长度随着每种颜色的波长不同而变化,它使用焦点扫描以聚集每种颜色并计算深度;

11.衍射光栅:光线经过光栅集合提供一些深度;

12:圆锥射线反射镜:光在不同深度处形成圆环面形状的图像,从圆环面提取深度信息;