随着深度学习技术的快速发展,其在计算机视觉、自然语言处理等领域取得了令人瞩目的成就。然而,深度学习模型的脆弱性问题日益凸显,对抗样本作为一种故意设计用于欺骗机器学习模型的输入,严重威胁着深度学习系统的安全性和可靠性。对抗样本的存在揭示了现有深度学习模型的脆弱性,表明了其在鲁棒性方面的不足。为了应对这一挑战,对抗机器学习的鲁棒性研究成为了一个重要的研究方向,其目的是提高深度学习模型抵御对抗攻击的能力,确保其在实际应用中的安全性和可靠性。本书从对抗鲁棒性评估和提升两个层面入手,提出了面向新型对抗攻击的对抗鲁棒性评估基准、小样本未知对抗样本检测方法以及基于元学习的对抗训练改进方法,以期全面评估和提升深度学习模型的对抗鲁棒性,为构建安全可靠的人工智能系统提供关键支撑。
展开