当前位置:主页 > 科技论文 > 自动化论文 >

基于多机器人系统的多目标围捕协同控制问题研究

发布时间:2022-10-15 18:34
  多机器人系统具有可靠性强、结构可扩展、执行任务多样等特点,目前正日益广泛地被应用于军事、工业生产、仓库物流、科教娱乐等方面。基于多机器人系统的多目标围捕控制是一个综合性较强的多机器人协同控制问题,既要求所有机器人建立起包括顶层决策、任务分配及编队控制等协同策略,同时又要保证围捕过程中各机器人之间互相无冲突。本文针对多机器人多目标围捕的任务分配和编队控制两方面开展研究:首先基于混合式体系结构设计了多机器人多目标围捕的任务分配算法,然后分别用经典控制方法和深度强化学习方法实现了多机器人环航围捕编队控制。各部分的研究内容和创新点如下:首先,对多机器人多目标任务分配问题设计了基于混合式体系结构的任务分配算法(Hybrid Dynamic Task Allocation,HDTA)。实际情况中,不同机器人的运动能力和围捕能力存在一定差异,而实际的围捕目标的逃脱能力也不完全相同。因此,本文设计了基于混合式体系结构的动态任务分配(HDTA)算法,能够将出现的多个目标高效且无冲突地分配到各机器人团组,为后续的多个机器人围捕目标提供可能。而后,本文针对多机器人围捕编队控制问题设计了改进的环航编队多机器人... 

【文章页数】:91 页

【学位级别】:硕士

【文章目录】:
摘要
ABSTRACT
符号使用说明
第一章 绪论
    1.1 研究背景和意义
    1.2 研究现状与发展动态
        1.2.1 多机器人任务分配
        1.2.2 多机器人目标围捕编队控制
        1.2.3 基于强化学习的多智能体协同控制
    1.3 论文研究的组织结构和创新点
        1.3.1 论文的组织结构
        1.3.2 主要贡献和创新点
第二章 基于混合式体系的多机器人围捕多目标任务分配
    2.1 多机器人多目标围捕任务分配建模
    2.2 基于混合式体系结构的动态任务分配HDTA算法
    2.3 多机器人围捕多目标HDTA任务配实验验证
    2.4 本章小结
第三章 具有避障的多机器人目标围捕环航编队控制
    3.1 问题背景
        3.1.1 目标围捕编队控制问题
        3.1.2 机器人实时避障问题
    3.2 结合实时避障的目标围捕控制算法设计
    3.3 多机器人多目标围捕仿真实验验证
    3.4 本章小结
第四章 基于MADDPG强化学习的多机器人目标围捕编队控制
    4.1 强化学习理论背景
        4.1.1 马尔可夫决策过程(MDP)
        4.1.2 确定性策略梯度(DPG)算法
        4.1.3 深度Q网络(DQN)算法
    4.2 基于MADDPG强化学习的多机器人目标围捕算法
        4.2.1 马尔可夫博弈
        4.2.2 多智能体深度确定性策略梯度(MADDPG)算法
        4.2.3 多机器人目标围捕问题马尔可夫博弈建模
    4.3 MADDPG强化学习的多机器人目标围捕实验验证
        4.3.1 MADDPG多机器人目标围捕仿真实现
        4.3.2 实验一:多机器人围捕静止目标
        4.3.3 实验二:多机器人围捕运动目标
        4.3.4 实验三:多机器人围捕逃逸目标
    4.4 本章小结
第五章 总结与展望
    5.1 论文的工作总结
    5.2 进一步研究的展望
致谢
参考文献
作者在学期间取得的学术成果
附录A MADDPG训练过程数据
    A.1实验训练中各机器人围捕编队的指标误差与累积回报


【参考文献】:
期刊论文
[1]机器人也玩DOTA——RoboMaster机甲大师赛介绍[J]. 李国傲.  少年电脑世界. 2017(12)

博士论文
[1]多机器人系统任务分配及编队控制研究[D]. 柳林.国防科学技术大学 2006

硕士论文
[1]分布式多机器人协同环航编队控制[D]. 姚伟嘉.国防科技大学 2017



本文编号:3691821

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3691821.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户00c9b***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com