当前位置:主页 > 科技论文 > 自动化论文 >

一种基于深度学习的脚本事件预测研究

发布时间:2023-02-12 18:59
  理解文本中描述的事件对于许多人工智能(AI)应用至关重要,例如话语理解,意图识别和对话生成。其中脚本事件预测是这项工作中最具挑战性的任务。脚本事件预测也可以叫做剧本事件预测,这项任务是来自手工编码任务的子任务。其中手工编码任务起源于1970-80年代,最早是作为文本知识骨干而使用,让推理和其他需要利用文本中深层语义知识信息的NLP任务成为了可能,如故事生成、对话理解、文本推测等任务提供了基础。完成剧本事件预测的主要工作可以分为三部分:第一部分是从文本中依照规则抽取定义上的剧本事件;第二步是将剧本事件变成计算机可以理解的表达方式;第三部分是指定剧本事件预测模型和评估方法。细化成技术方面,完成剧本事件预测任务的主要步骤分为:数据清洗、依赖分析、实体分析、抽取事件、获取事件链、构建预测模型、评估模型,这七个部分。由于构建预测模型的好坏、优劣决定了整个流程是否能充分掌握文本中事件的语义信息,因此本文的工作重点在于第六部分构建预测模型和第七部分评估模型这两部分。本文的主要内容是针对剧本事件预测任务中,事件预处理的事件表达这一环节进行了更加深度的工作。主要贡献是在事件的向量表示处理这一步,针对事件...

【文章页数】:77 页

【学位级别】:硕士

【文章目录】:
中文摘要
ABSTRACT
第一章 绪论
    1.1 研究背景和意义
        1.1.1 事件预测任务研究背景
        1.1.2 剧本事件预测研究意义
    1.2 研究现状
        1.2.1 国外研究历史进度
        1.2.2 国内研究发展现状
    1.3 本文工作与贡献
    1.4 论文结构
第二章 事件预测相关算法研究
    2.1 基于统计语言模型计算事件关系
        2.1.1 语言规律
        2.1.2 马尔可夫模型
        2.1.3 高阶语言模型
    2.2 NLP文本预处理与事件抽取
        2.2.1 词向量模型-Word2Vec
        2.2.2 SG模型和CBOW模型
        2.2.3 The Fake Task
        2.2.4 模型详细步骤
    2.3 神经网络与深度学习
        2.3.1 循环神经网络(RNN)
        2.3.2 长短期记忆神经网络(LSTM)结构
        2.3.3 双向循环神经网络(BRNN)
        2.3.4 Seq2Seq模型与注意力机制
    2.4 本章小结
第三章 基于上下文事件向量的事件预测模型
    3.1 问题描述
        3.1.1 脚本事件预测任务定义
        3.1.2 问题建模
    3.2 模型的设计
        3.2.1 编码深层事件向量表征
        3.2.3 事件时间序列建模
        3.2.4 注意力机制建模
    3.3 训练的结构风险与评估标准
        3.3.1 结构风险的选择
        3.3.2 评估标准
    3.4 本章小节
第四章 多模型实验过程对比
    4.1 获取实验数据
        4.1.1 数据选择与服务器环境
        4.1.2 文本预处理
        4.1.3 获取事件链和候选事件
    4.2 其他实验模型
        4.2.1 Chambers & Jurafsky 08模型
        4.2.2 Bigram模型
        4.2.3 LSTM和注意力机制模型
    4.3 实验过程与评估
        4.3.1 评估方法
        4.3.2 实验处理过程
        4.3.3 上下文事件向量生成
        4.3.4 超参数设定
        4.3.5 实验结果分析
        4.3.6 实验结论
    4.4 本章小结
第五章 总结与展望
    5.1 本文总结
    5.2 展望
参考文献
致谢
在校期间科研成果、项目成果



本文编号:3741645

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3741645.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户f2562***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com