随着人工智能技术的快速发展,各种深度学习模型已经渗入人们的日常生活,在图像分类、目标检测、自然语言处理等领域显示了良好的效果和潜力。但是,深度学习及其分支技术有一些内在的脆弱性,在某些场景下容易受到对抗样本的欺骗和攻击,会引发严重后果。若不能了解其中的原因和机理,就不能进行有效防御。本书通过介绍针对图像分类模型的对抗技术,描述了面向深度神经网络的对抗效果,以此阐述对其脆弱性进行攻击的特定样例,期望能反向促进深度学习及人工智能领域的健康发展。
本书适合高年级本科生、研究生以及对图像分类中的对抗技术感兴趣的研究人员参考。
展开