第1章 三维重建
1.1 概述
1.2 国内外主要研究工作
1.2.1 基于多视图几何的三维重建
1.2.2 基于深度学习的三维重建
1.2.3 小结
1.3 技术实践
1.3.1 技术案例一:基于多任务的深度图预测
1.3.2 技术案例二:主动式目标三维重建与补全优化
1.3.3 技术案例三:基于模型替换的场景建模
1.3.4 技术案例四:基于无监督学习的场景重建
1.3.5 技术案例五:基于单视角图像的场景重建
1.4 本章小结
1.5 思考题
参考文献
第2章 场景探索
2.1 概述
2.2 国内外主要研究工作
2.2.1 三维重建中的场景探索
2.2.2 视觉语义导航中的场景探索
2.2.3 小结
2.3 技术实践
2.3.1 技术案例一:对象感知引导的自主场景三维重建
2.3.2 技术案例二:面向未知三维场景重建系统的设计与实现
2.3.3 技术案例三:视觉语义导航中基于语义场景补全的场景探索
2.4 本章小结
2.5 思考题
参考文献
第3章 场景理解
3.1 概述
3.2 国内外主要研究工作
3.2.1 基于物体检测与分类的室内场景理解
3.2.2 基于场景图发掘物体关联的室内场景理解
3.2.3 小结
3.3 技术实践
3.3.1 技术案例一:基于卷积神经网络的点云语义分割与分类
3.3.2 技术案例二:基于三维场景点云的场景图生成
3.4 本章小结
3.5 思考题
参考文献
第4章 机器人导航与避障
4.1 概述
4.2 国内外主要研究工作
4.2.1 经典重定位算法
4.2.2 基于深度学习的重定位算法
4.2.3 经典导航与避障算法
4.2.4 基于深度学习的导航与避障算法
4.2.5 小结
4.3 技术实践
4.3.1 技术案例一:基于特征数据库匹配的相机重定位
4.3.2 技术案例二:基于深度学习的相机重定位
4.3.3 技术案例三:基于相机重定位的机器人导航
4.3.4 技术案例四:基于已知栅格地图的机器人避障
4.3.5 技术案例五:基于深度强化学习的多智能体避障
4.3.6 技术案例六:基于单目相机的复杂场景自主避障
4.4 本章小结
4.5 思考题
参考文献
第5章 机器人抓取
5.1 概述
5.2 国内外主要研究工作
5.2.1 基于分析法和经验法的抓取方式检测
5.2.2 基于深度学习的抓取方式检测
5.2.3 小结
5.3 技术实践
5.3.1 技术案例一:基于物体交互动力学的抓取姿态检测
5.3.2 技术案例二:基于主动学习的机器人抓取
5.3.3 技术案例三:基于Faster R-CNN的机器人抓取
5.3.4 技术案例四:基于弱监督语义分割网络的机器人抓取
5.3.5 技术案例五:基于生成式的抓取姿态检测
5.4 本章小结
5.5 思考题
参考文献
第6章 综合项目实践:面向机器人任务的三维场景建模与理解
6.1 项目实践背景
6.2 项目实践概述
6.3 项目实践结构
6.4 主要模块设计与实现
6.4.1 多个RGB-D相机的驱动与信息采集
6.4.2 基于多RGB-D相机融合的室内场景三维重建
6.4.3 基于RGB-D序列的场景标记技术方法
6.4.4 平台设计
6.5 本章小结
6.6 思考题
参考文献
展开