当前位置:主页 > 科技论文 > 自动化论文 >

人机对话中的情感文本生成方法研究

发布时间:2022-12-17 18:03
  人机对话(Human-Computer Dialogue)作为人工智能领域的重要问题,备受研究人员的关注。面向开放领域的对话生成是人机对话中的一个重要问题,其目标是尽可能地使生成的对话回复更加自然、流畅和多样。近年来,深度学习技术的不断进步极大地推动了对话生成相关研究的发展,使得对话生成不再仅仅依靠模板匹配与检索等方式。目前基于深度学习的对话生成方法大多是采用Encoder-Decoder框架的Seq2Seq模型,通过大量的数据来学习特征表示和回复生成策略。但是,这种方法容易生成内容单一甚至无意义的安全回复。针对现有方法的不足,本文研究基于变分自编码器(Variational Auto-Encoder,VAE)的文本对话生成方法,以提高模型回复的多样性,并在此基础上嵌入情感因素,使得模型能够生成包含情感的回复,进一步改善人机对话中的用户体验。本文的工作主要包括:针对现有基于RNN(Recurrent Neural Network)的Seq2Seq模型对话生成质量较低的问题,本文研究基于变分自编码器的对话生成模型,将VAE过程引入Seq2Seq模型的解码阶段,利用隐变量对文本语义的潜在分... 

【文章页数】:63 页

【学位级别】:硕士

【文章目录】:
摘要
ABSTRACT
第1章 绪论
    1.1 课题来源
    1.2 课题背景、研究目的及意义
        1.2.1 课题背景
        1.2.2 课题研究目的及意义
    1.3 国内外相关技术研究现状
        1.3.1 对话系统研究现状
        1.3.2 变分自编码器研究现状
        1.3.3 文本情感分析研究现状
    1.4 本文的主要研究内容
    1.5 本文的章节结构
第2章 人机对话系统相关研究
    2.1 引言
    2.2 文本对话生成相关研究
    2.3 基于变分自编码器的文本生成相关研究
    2.4 文本情感分析相关研究
    2.5 本章小结
第3章 基于RNN的SEQ2SEQ对话生成方法
    3.1 引言
    3.2 基于RNN的Seq2Seq对话生成模型
        3.2.1 基于RNN的Seq2Seq模型
        3.2.2 基于Seq2Seq的对话生成模型
    3.3 实验结果及分析
        3.3.1 数据集及实验设置
        3.3.2 不同神经单元对文本生成结果的影响
        3.3.3 注意力机制对文本生成结果的影响
    3.4 本章小结
第4章 基于变分自编码器的对话生成方法
    4.1 引言
    4.2 基于变分自编码器的对话生成模型
        4.2.1 生成模型
        4.2.2 推理模型
        4.2.3 模型训练及优化
    4.3 对话生成的评价指标
    4.4 实验结果及分析
        4.4.1 数据集及实验设置
        4.4.2 对话生成结果
        4.4.3 对话生成质量的量化指标
        4.4.4 KL退火算法对KL损失的影响
    4.5 本章小结
第5章 嵌入情感因素的对话生成方法
    5.1 引言
    5.2 基于变分自编码器的情感对话生成模型
    5.3 基于卷积记忆网络的文本情感分类模型
    5.4 实验结果及分析
        5.4.1 数据集及实验设置
        5.4.2 情感分类实验结果及分析
        5.4.3 基于变分自编码器的对话生成结果及分析
    5.5 本章小结
结论
参考文献
攻读硕士学位期间发表的论文及其它成果
致谢


【参考文献】:
期刊论文
[1]基于多样化特征的中文微博情感分类方法研究[J]. 张志琳,宗成庆.  中文信息学报. 2015(04)
[2]基于极性转移和LSTM递归网络的情感分析[J]. 梁军,柴玉梅,原慧斌,高明磊,昝红英.  中文信息学报. 2015(05)
[3]对话系统评价方法综述[J]. 张伟男,张杨子,刘挺.  中国科学:信息科学. 2017(08)
[4]基于改进编辑距离的中文相似句子检索[J]. 车万翔,刘挺,秦兵,李生.  高技术通讯. 2004 (07)



本文编号:3720392

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3720392.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户14ca1***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com