第1章 视觉感知技术基本原理
1.1 视觉传感器与视觉系统
1.1.1 视觉传感器定义及分类
1.1.2 视觉系统
1.2 视觉成像基本原理
1.3 视觉系统标定
1.3.1 相机标定方法
1.3.2 机器人手眼标定
1.4 主要的视觉测量方法
1.4.1 单目视觉测量方法
1.4.2 双目立体视觉测量方法
本章小结
参考文献
第2章 触觉/力觉感知原理
2.1 触觉信息获取与处理
2.1.1 触觉传感器的基本分类
2.1.2 触觉信息处理
2.1.3 柔性触觉传感器技术
2.2 力觉信息获取与处理
2.2.1 力觉传感器的基本分类
2.2.2 力觉传感器标定技术
本章小结
参考文献
第3章 智能视觉感知方法与技术
3.1 经典的视觉感知方法
3.1.1 视觉匹配
3.1.2 视觉显著性
3.2 基于机器学习方法的视觉感知
3.2.1 集成学习
3.2.2 局部二值模式
3.2.3 特征点匹配方法
3.2.4 方向梯度直方图
3.2.5 支持向量机
3.3 深度学习视觉感知
3.3.1 经典的视觉感知网络结构
3.3.2 基于深度学习的目标感知
3.4 面向少量样本学习的视觉感知方法
3.4.1 孪生网络
3.4.2 零样本学习
3.5 视觉引导的机器人抓取技术
3.5.1 基于深度学习的抓取技术
3.4.2 基于深度强化学习的抓取技术
本章小结
参考文献
第4章 机器人触/力觉智能感知
4.1 机器人触觉感知
4.2 基于触觉感知的机器人操作
4.2.1 基于触觉信息的抓取稳定性分析
4.2.2 基于触觉信息的目标识别
4.2.3 基于触觉的其它应用
4.3 机器人力觉感知及操作
4.4 阻抗控制和力/位混合控制
4.4.1 机器人运动学和动力学模型
4.4.2 阻抗控制方法
4.4.3 力/位混合控制
4.5 力控制和接触约束融合方法
4.5.1 接触约束
4.5.2 接触约束和力控制的融合
4.6 基于力智能感知的操控
本章小结
参考文献
第5章 多通道信息融合的人机对话
5.1 多通道人机对话一般框架
5.2 面向人机对话的多通道信息处理
5.2.1 不同通道信息处理的认知假定
5.2.2 不同通道信息处理的一般计算模式
5.2.3 多道信息融合的心理学假定和认知模型
5.2.4 基于深度感知的信息融合
5.3 面向人机对话的对话管理
5.3.1 任务导向的对话管理
5.3.2 非任务导向的对话生成
5.3.3 对话交互学习
5.4 多通道信息融合局限及人机对话未来突破方向
本章小结
参考文献
第6章 月面巡视器视觉定位
6.1 巡视器视觉导航定位现状
6.1.1 研究现状
6.1.2 巡视器视觉定位中的关键技术
6.1.3 图像特征信息提取与匹配算法
6.2 两帧之间的运动估计问题
6.2.1 基于对极几何的运动估计
6.2.2 基于PNP运动估计
6.2.3 基于ICP运动估计
6.3 位姿和位置信息的捆绑约束调整
6.3.1 光束法解析摄影测量
6.3.2 BA稀疏性与图优化
6.4 位姿图优化
6.5 惯性导航技术
6.5.1 惯导的位姿解算原理
6.5.2 航位推算
6.6 IMU与双目视觉定位技术的融合
6.6.1 ORB-SLAM系统框架
6.6.2 IMU与视觉定位技术融合
6.6.3 VIORB实验结果测试
本章小结
参考文献
第7章 空间非合作目标视觉感知
7.1 概述
7.2 非合作目标的视觉测量
7.2.1 非合作目标位姿单目视觉测量技术
7.2.2 非合作目标位姿双目视觉测量技术
7.3 非合作目标抓捕
7.3.1 非合作目标的几种典型抓捕方式
7.3.2 抓捕过程接触动力学分析
7.3.3 抓捕过程的阻抗控制
本章小结
参考文献
展开