译者序
前言
致谢
第1章 绪论
1.1 引言
1.2 人工智能任务中的结构对偶性
1.3 对偶学习的划分
1.3.1 依照使用数据划分
1.3.2 依照对偶信号构造准则划分
1.4 全书总览
参考文献
第一部分 准备知识
第2章 机器学习基础
2.1 机器学习范式
2.1.1 有监督学习
2.1.2 无监督学习
2.1.3 强化学习
2.1.4 其他学习范式
2.2 机器学习算法核心组成部分
2.3 泛化和正则化
2.4 搭建机器学习模型
2.4.1 数据收集和特征工程
2.4.2 算法选择、模型训练、超参数调优
参考文献
第3章 深度学习基础
3.1 神经网络
3.2 卷积神经网络
3.3 序列建模
3.3.1 递归神经网络及其变种
3.3.2 编码器-解码器架构
3.3.3 Transformer网络
3.4 深度模型训练
3.4.1 随机梯度下降法
3.4.2 正则化
3.5 为什么选择深度神经网络
参考文献
第二部分 对偶重构
第4章 对偶学习在机器翻译中的应用及拓展
4.1 机器翻译简介
4.1.1 神经机器翻译
4.1.2 回译技术
4.2 对偶重构准则
4.3 对偶半监督学习
4.4 对偶无监督学习
4.4.1 基本思想
4.4.2 系统架构和训练算法
4.5 多智能体对偶学习
4.5.1 模型架构
4.5.2 拓展和比较
4.5.3 多智能体对偶机器翻译
4.6 拓展
4.6.1 语义解析
4.6.2 文本风格迁移
4.6.3 对话
参考文献
第5章 对偶学习在图像翻译中的应用及拓展
5.1 简介
5.2 无监督图像翻译的基本思想
5.3 图像翻译
5.3.1 DualGAN
5.3.2 CycleGAN
5.3.3 DiscoGAN
5.4 细粒度图像翻译
5.4.1 细粒度图像翻译中的问题
5.4.2 条件DualGAN
5.4.3 讨论
5.5 具有多路径一致性的多域图像翻译
5.6 拓展
5.6.1 人脸相关任务
5.6.2 视觉语言任务
5.6.3 其他图像相关任务
参考文献
第6章 对偶学习在语音处理中的应用及拓展
6.1 神经语音合成和识别
6.2 语音链的对偶学习
6.3 低资源语音处理的对偶学习
6.3.1 使用双向序列建模的去噪自编码
6.3.2 使用双向序列建模的对偶重构
6.3.3 模型训练
6.4 极低资源语音处理的对偶学习
6.4.1 预训练和微调
6.4.2 对偶重构
6.4.3 知识蒸馏
6.4.4 LRSpeech的性能
6.5 非母语语音识别的对偶学习
6.5.1 非母语语音识别的难点
6.5.2 基于对偶重构准则的方法
6.6 拓展
参考文献
第三部分 概率准则
第7章 对偶有监督学习
7.1 联合概率准则
7.2 对偶有监督学习算法
7.3 应用
7.3.1 神经机器翻译
7.3.2 图像分类和生成
7.3.3 情感分析
7.3.4 问题回答和问题生成
7.3.5 代码摘要和代码生成
7.3.6 自然语言理解和生成
7.4 理论分析
参考文献
第8章 对偶推断
8.1 基本架构
8.2 应用
8.3 理论分析
参考文献
第9章 基于边缘概率的对偶半监督学习
9.1 边缘概率的高效估计
9.2 以边缘概率为约束
9.3 无标数据的似然最大化
9.4 讨论
参考文献
第四部分 前沿课题
第10章 对偶重构的理论解读
10.1 概述
10.2 对偶重构准则在无监督学习中的解读
10.2.1 对偶无监督映射的建模
10.2.2 存在的问题和简单性假设
10.2.3 最小复杂度
10.3 对偶重构准则在半监督学习中的解读
10.3.1 算法和符号说明
10.3.2 双语翻译
10.3.3 多域对偶学习
参考文献
第11章 对偶学习和其他学习范式的联系
11.1 对偶半监督学习和协同训练
11.2 对偶学习和多任务学习
11.3 对偶学习、GAN和自编码器
11.4 对偶有监督学习和贝叶斯阴阳学习
11.5 对偶重构及相关概念
参考文献
第五部分 总结和展望
第12章 总结和展望
12.1 总结
12.2 未来研究方向
12.2.1 更多的学习环境和应用
12.2.2 提升训练效率
12.2.3 理论研究
参考文献
展开