第1章 绪论0011.1 机器人导引技术概述0011.2 常见机器人导引技术0041.2.1 电磁导引技术.041.2.2 激光导引技术.051.2.3 视觉导引技术.0071.3 机器人视觉导引研究现状0091.3.1 三维视觉测量理论0091.3.2 机器人运动学理论0121.3.3 视觉伺服控制技术0131.3.4 系统参数标定技术0151.3.5 实际应用.0171.3.6
第1章 绪论0011.1 机器人导引技术概述0011.2 常见机器人导引技术0041.2.1 电磁导引技术.041.2.2 激光导引技术.051.2.3 视觉导引技术.0071.3 机器人视觉导引研究现状0091.3.1 三维视觉测量理论0091.3.2 机器人运动学理论0121.3.3 视觉伺服控制技术0131.3.4 系统参数标定技术0151.3.5 实际应用.0171.3.6 主要挑战019参考文献021第2章 机器人视觉导引理论基础0272.1 机器人视觉系统理论模型0272.1.1 机器人视觉系统基本架构0272.1.2 相机成像模型0282.1.3 视觉测量模型0322.2 视觉测量与位姿估计理论0342.2.1 三角测量理论0342.2.2 位姿估计理论0382.3 机器人运动学基本理论0442.3.1 机器人运动学模型0442.3.2 机器人运动学分析0482.3.3 Simulink与ADAMS联合仿真052参考文献055第3章 机器人视觉系统参数标定技术0573.1 单相机内部参数标定0573.1.1 相机标定方法概述0573.1.2 基于平面靶标的内参标定0593.1.3 方法验证0623.2 双/多相机外部参数标定0*3.2.1 基于坐标变换的外参标定0*3.2.2 方法验证0653.3 变视轴视觉系统参数标定0673.3.1 变视轴视觉成像模型0673.3.2 多误差参数联合标定0703.3.3 方法验证0723.4 机器人手眼关系参数标定0743.4.1 两步标定法0743.4.2 辅助标定法0773.4.3 方法验证079参考文献081第4 章 基于单目视觉的机器人导引技术0834.1 常用合作目标0834.2 目标特征识别与提取0844.2.1 角点识别与检测0844.2.2 椭圆识别与检测0874.3 多视角图像序列匹配0924.3.1 SIFT匹配0934.3.2 Root-SIFT匹配0984.3.3 ASIFT配准0984.4 位姿估计与导引定位0994.4.1 三点位姿估计与定位方法0994.4.2 RPnP位姿估计与定位方法1034.4.3 算法对比实验106参考文献1095章 基于双目视觉的机器人导引技术1115.1 双视角图像预处理1115.1.1 图像差分去除背景1125.1.2 颜色过滤去除背景1125.2 立体匹配与视差估计1135.2.1 匹配代价计算1145.2.2 匹配代价聚合1165.2.3 视差计算1175.2.4 视差细化1185.2.5 实验验证1195.3 点云生成与数据处理1215.3.1 点云生成1215.3.2 点云配准1225.3.3 点云优化1235.3.4 实验验证1245.4 位姿估计与导引定位1265.4.1 导引策略1265.4.2 实验验证127参考文献129第 6 章 视觉导引算法与跟踪控制策略1316.1 视觉导引控制策略1316.2 目标运动模型1326.2.1 匀速模型1326.2.2 匀加速模型.1336.2.3 协同转弯模型1336.2.4 Singer模型1356.2.5“当前”统计模型1366.2.6 自适应机动目标模型..1386.3 卡尔曼滤波算法1396.3.1 基本原理1406.3.2 算法流程1426.4 交互多模型跟踪滤波算法1436.4.1 算法原理1446.4.2 流程归纳1476.5 实验验证1476.5.1 跟踪滤波仿真验证1476.5.2 目标位置估计实验150参考文献151第7章 多传感器融合视觉导引技术1527.1 主辅相机协同的机器人导引方法1527.1.1 主辅相机机器人导引模型1527.1.2 主辅相机标定1527.1.3 主辅相机成像目标定位与导引策略1557.2 结构光视觉定位的机器人导引方法1567.2.1 基于结构光的视觉导引模型1567.2.2 结构光视觉手眼标定1597.2.3 基于结构光视觉的目标定位1627.3 多传感器信息融合的机器人导引方法1*7.3.1 激光雷达与视觉融合的机器人导引模型1*7.3.2 激光雷达与视觉融合的手眼系统标定.1667.3.3 激光雷达与视觉信息融合的目标定位170参考文献173第8章 应用案例1758.1 基于双目视觉三维测量的机器人目标抓取1758.2 基于三维视觉点云重建的机器人视觉导引1788.3 基于深度学习目标分类的机器人视觉导引184彩色插图