面向图像目标检测的对抗攻击

发布时间:2022-11-07 17:23
  近年来,深度学习技术飞速发展,在丰富的计算机视觉任务上取得了巨大的成功。但是,基于深度学习的模型存在鲁棒性问题,普遍容易受到对抗样本的攻击。对抗样本攻击有助于人们认识深度学习方法的脆弱性、引导人们思考其中的安全隐患并对其完善。尽管越来越多的工作针对图像分类问题上的对抗样本展开研究,但目标检测问题结合了多目标分类和定位问题,其攻击难度更大;同时,图像目标检测是计算机视觉中最基本的任务之一,其安全性尤为重要。因此,本文专注于面向图像目标检测的对抗攻击。现有攻击方法存在攻击效果不足和攻击形式单一两方面的问题。一方面,现有攻击方法效果不足,有以下两个重要的原因:其一,针对目标检测的对抗攻击算法通常直接地干扰其优化目标(即分类损失和回归损失),忽略了模型提取上下文信息的能力;其二,目标检测训练过程的优化目标与检测结果评价标准存在不一致性问题。另一方面,在现有文献中,目标检测对抗样本的攻击形式较为单一,大多数工作都是针对无目标攻击,且一般不指定模型的出错类型,产生的错误结果以假阴性居多,有指向性的假阳性对抗样本还鲜有系统的研究。但这类对抗样本能够为深度学习目标检测的脆弱性提供另一角度的解释,对防御... 

【文章页数】:77 页

【学位级别】:硕士

【文章目录】:
摘要
abstract
第1章 绪论
    1.1 引言
    1.2 国内外研究概况
        1.2.1 通用目标检测
        1.2.2 弱监督目标检测
        1.2.3 目标检测的对抗攻击
        1.2.4 目标检测常用数据集与评价标准
        1.2.5 小结
    1.3 论文组织结构
第2章 基于上下文信息的目标检测对抗攻击
    2.1 概述
    2.2 相关工作
        2.2.1 全监督与弱监督目标检测
        2.2.2 目标检测对抗攻击
    2.3 攻击方法
        2.3.1 问题描述
        2.3.2 目标函数
        2.3.3 弱监督目标检测攻击
    2.4 实验结果
        2.4.1 数据和实验细节
        2.4.2 消融实验
        2.4.3 与当前最优算法对比
        2.4.4 MS COCO实验结果
        2.4.5 弱监督目标检测的攻击
    2.5 本章小结
第3章 基于不可察觉物体隐藏的目标检测对抗攻击
    3.1 概述
    3.2 相关工作
    3.3 物体隐藏的问题定义与解决方法
        3.3.1 问题定义与评价标准
        3.3.2 基准方法
        3.3.3 上下文信息增强方法
        3.3.4 区域失真约束方法
    3.4 实验结果
        3.4.1 数据和实验细节
        3.4.2 基准方法的实验与分析
        3.4.3 上下文信息增强的消融实验
        3.4.4 区域失真约束的消融实验
        3.4.5 三种方法的综合比较
    3.5 本章小结
第4章 总结与展望
    4.1 本文工作总结
    4.2 未来工作展望
参考文献
致谢
在读期间发表的学术论文与取得的研究成果



本文编号:3704091

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/3704091.html


Copyright(c)文论论文网All Rights Reserved | 网站地图

版权申明:资料由用户8fa72***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱[email protected]