当前位置:主页 > 科技论文 > 自动化论文 >

基于风格迁移的对抗样本防御方法研究

发布时间:2024-01-16 19:38
  近年来,作为机器学习非常重要的一个分支,深度学习技术在国内外得到了迅速的发展和广泛的关注,其实际应用也越来越广,比如图像分类、目标检测、自动驾驶技术等。但是,最近的研究表明,基于深度学习的图像识别系统容易受到恶意的攻击,攻击者可以通过在图像上添加人类难以察觉的修改后,迫使深度学习模型对图像进行错误分类。添加扰动后的图像被称为对抗样本。为了提高图像识别模型的可靠性,迫切需要对对抗样本防御进行研究。目前,许多研究人员试图通过研究对抗样本防御来增强图像分类模型的鲁棒性,鲁棒性已经成为保证深度学习模型可靠性的关键特性。然而,目前防御方法的研究主要集中在改进分类模型上,防御效果有限,防御能力不够完备。本文研究了在输入图像分类系统之前,通过转换输入来提高模型鲁棒性,以此抵御对抗性攻击。本文首先对已提出的形状轮廓偏好的鲁棒的图像分类模型进行实验探究,发现其对抗鲁棒性不足,甚至完全失去对抗样本防御能力。本文在此基础上,通过实验提出了基于风格迁移的对抗样本防御方法,并对防御模型进行了设计与实现,通过实验确定了模型参数。其次,使用FGSM、BIM、PGD、MIM等四种常见的攻击算法对模型进行攻击生成对抗样...

【文章页数】:70 页

【学位级别】:硕士

基于风格迁移的对抗样本防御方法研究


基于风格迁移的对抗样本防御方法研究


基于风格迁移的对抗样本防御方法研究



本文编号:3879106

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3879106.html


Copyright(c)文论论文网All Rights Reserved | 网站地图

版权申明:资料由用户910ad***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com