理论篇
第1章 增强现实概念和发展历史
1.1 相关概念介绍
1.1.1 虚拟现实
1.1.2 增强现实
1.1.3 混合现实
1.1.4 虚实统一体
1.1.5 增强现实与虚拟现实的区别
1.1.6 “人-机-环境”关系
1.1.7 元宇宙
1.2 增强现实呈现手段
1.2.1 视觉呈现
1.2.2 听觉呈现
1.2.3 触觉呈现
1.2.4 嗅觉和味觉呈现
1.3 增强现实应用的发展
1.3.1 增强现实用于电视转播
1.3.2 首款增强现实游戏原型
1.3.3 谷歌眼镜和微软HoloLens
1.4 增强现实关键技术
1.4.1 位姿跟踪注册技术
1.4.2 虚实融合呈现技术
1.4.3 自然人机交互技术
1.5 增强现实应用领域
第2章 人类视觉成像基本原理
2.1 人眼基本生理结构
2.1.1 眼球组织的分层构造解析
2.1.2 视觉感知流程
2.1.3 视觉感知类型
2.1.4 视觉基本概念
2.2 人眼立体视觉感知
2.2.1 心理立体感知
2.2.2 生理立体感知
2.3 视觉感知的四个层级
2.3.1 传统平面显示屏
2.3.2 影院式立体眼镜
2.3.3 沉浸式立体显示
2.3.4 光场式立体呈现
第3章 视觉三维感知基础理论
3.1 分层射影几何
3.1.1 分层射影几何基本概念
3.1.2 二维射影空间
3.1.3 三维射影空间
3.2 相机成像模型
3.2.1 小孔相机模型
3.2.2 图像的像素化
3.2.3 坐标系的变换
3.2.4 完整变换过程
3.2.5 成像矩阵表示
3.3 多视图几何理论
3.3.1 两幅图像的对极几何关系
3.3.2 基本矩阵的估计方法
3.3.3 三幅图像的多焦距张量
3.3.4 三焦距张量的估计方法
3.4 三维重建与增强现实的关系
第4章 光场概念及其研究进展
4.1 光场基本概念
4.1.1 光场的参数表示
4.1.2 光场的四维表示
4.1.3 光场的几何解释
4.1.4 光场的魔盒解释
4.2 光场数据采集
4.2.1 基于相机阵列的光场数据采集
4.2.2 基于微透镜阵列的光场数据采集
4.2.3 基于编码掩膜的光场数据采集
4.2.4 光场数据采集方案的对比分析
4.3 光场数据处理
4.3.1 光场数据的可视化处理
4.3.2 基于光场数据的重聚焦
4.3.3 基于光场数据的深度估计
4.4 光场数据显示
4.4.1 体三维显示
4.4.2 多视投影阵列显示
4.4.3 集成成像显示
4.4.4 多层液晶张量光场显示
4.5 光场研究意义
4.5.1 理论研究价值
4.5.2 潜在的应用领域
4.5.3 与增强现实的关系
技术篇
第5章 增强现实中的三维图形绘制技术
5.1 计算机图形学基础
5.1.1 基本图形元素
5.1.2 矢量几何含义
5.1.3 几何拓扑关系
5.1.4 几何实体定义
5.2 三维实体模型绘制
5.2.1 图形系统基本组成
5.2.2 图形绘制基本流程
5.3 视图模型变换过程
5.3.1 成像过程
5.3.2 模型变换
5.3.3 投影变换
5.3.4 裁剪变换
5.3.5 视口变换
5.3.6 矩阵堆栈
5.4 图形绘制相关技术
5.4.1 纹理映射
5.4.2 光照模型
5.4.3 视点漫游
5.4.4 GPU加速绘制
5.4.5 云绘制技术
5.5 常用图形开发接口
5.5.1 OpenGL
5.5.2 Direct3D
第6章 增强现实中的位姿跟踪注册技术
6.1 位姿跟踪注册框架
6.1.1 对位姿跟踪的基本要求
6.1.2 位姿跟踪注册方法
6.2 基于视觉的位姿跟踪技术
6.2.1 跟踪基本流程
6.2.2 图像特征匹配
6.2.3 空间位姿解算
6.2.4 相关数学算法
6.3 基于惯导的位姿跟踪技术
6.3.1 IMU运动模型
6.3.2 IMU预积分
6.4 其他位姿跟踪技术
6.4.1 基于卫星的位置跟踪
6.4.2 基于实时动态定位技术的位置跟踪
6.4.3 基于超宽带技术的位置跟踪
6.5 多传感器融合跟踪技术
第7章 增强现实中的虚实融合呈现技术
7.1 近眼光学微显示技术
7.1.1 液晶显示技术
7.1.2 硅基液晶显示技术
7.1.3 有机发光二极管显示技术
7.1.4 数字光处理技术
7.1.5 微型有机电激光显示技术
7.1.6 微发光二极管显示技术
7.1.7 其他光学显示技术
7.2 近眼光路组合技术
7.2.1 棱镜光路技术
7.2.2 Birdbath光路技术
7.2.3 自由曲面反射镜光路技术
7.2.4 自由曲面棱镜光路技术
7.2.5 光波导技术
7.3 环境光自适应控制技术
展开