神经网络法在位移测量中的若干应用研究

发布时间:2024-04-25 20:33
  科研和工程领域的不断发展对光测力学方法的高精度、大量程、实时性提出了更高的要求。其中,二维数字图像相关方法被广泛用于面内位移测量,目前0.01像素的测量精度能满足大部分位移测量需求,但数字图像相关方法(DIC)的实时性还未能满足工业在线监测等应用场景。干涉法包括激光干涉,电子散斑干涉(ESPI)等已被广泛用于离面位移测量,但受位相提取速度和精度,散斑退相关等因素的制约无法同时满足高精度,大量程和实时性的测量需求。投影光栅法作为一种主动测量方法常用于形貌测量领域,与干涉法相同,核心手段在于对条纹图的分析,将提取到的位相转化为待测物理量,因此测量效率依赖于准确高效的位相提取方法。此外,神经网络法作为机器学习的重要组成部分,在图像、语音等领域已获得了广泛的应用,该方法也被引入到光学测量中,为光学测量中振动信号分析、条纹图分析等问题提供了新的解决思路。本文工作以同时实现高精度,大量程,实时性的测量需求为目标,对现有测量手段做出了以下改进:(1)介绍了以牛顿迭代法(NR)和反向组合高斯牛顿法(IC-GN)为代表的传统数字图像相关方法,并指出亚像素位移的迭代计算是DIC方法耗时的关键。基于此提出采...

【文章页数】:111 页

【学位级别】:博士

【文章目录】:
摘要
ABSTRACT
第1章 绪论
    1.1 研究背景
    1.2 位移和形貌测量的发展和研究现状
        1.2.1 数字图像相关法
        1.2.2 GPU并行计算的引入和研究现状
        1.2.3 干涉法
        1.2.4 投影光栅法
        1.2.5 条纹分析方法
        1.2.6 神经网络法的发展和应用现状
    1.3 本文的研究内容
    1.4 本文的章节安排
第2章 时序数字图像相关法及其GPU并行加速
    2.1 前言
    2.2 数字图像相关法基本原理
    2.3 整像素位移计算
    2.4 亚像素位移计算
        2.4.1 NR算法
        2.4.2 IC-GN算法
        2.4.3 时间序列法
    2.5 GPU并行加速
        2.5.1 并行计算原理
        2.5.2 并行计算加速结果
    2.6 本章小结
第3章 神经网络法基本介绍
    3.1 简介
    3.2 前向传播
        3.2.1 BP神经网络
        3.2.2 卷积神经网络
    3.3 模型训练
        3.3.1 损失函数
        3.3.2 优化算法
    3.4 本章小结
第4章 基于神经网络法的离面位移测量系统
    4.1 前言
    4.2 离面位移测量系统
        4.2.1 反射面干涉条纹形成原理
        4.2.2 漫反射面干涉条纹形成原理
    4.3 位移追踪测量原理
        4.3.1 位移大小计算
        4.3.2 位移方向判断
    4.4 实验验证与结果对比
        4.4.1 反射面干涉实验
        4.4.2 漫反射面干涉实验
        4.4.3 结果与讨论
    4.5 本章小结
第5章 基于神经网络的位相提取算法
    5.1 位相提取背景及概述
    5.2 位相提取算法
        5.2.1 四步相移法
        5.2.2 傅里叶变换法
        5.2.3 小波变换法
        5.2.4 神经网络法
    5.3 条纹图获取
        5.3.1 模拟条纹图
        5.3.2 实验条纹图
    5.4 实验结果和讨论
        5.4.1 计算精度
        5.4.2 计算速度
        5.4.3 讨论
    5.5 本章小结
第6章 基于神经网络的单点动态位移分析
    6.1 引言
    6.2 轴承振动信号特性
    6.3 希尔伯特变换
    6.4 故障监测方法原理
    6.5 故障监测方法验证
    6.6 本章小结
第7章 总结与展望
    7.1 全文总结
    7.2 展望及对后续工作的思考
参考文献
致谢
在读期间发表的学术论文与取得的其他研究成果



本文编号:3964219

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/jckxbs/3964219.html


Copyright(c)文论论文网All Rights Reserved | 网站地图

版权申明:资料由用户70fc3***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱[email protected]