融合词汇特征的生成式摘要
DOI:
作者:
作者单位:

河北科技大学信息科学与工程学院

作者简介:

通讯作者:

中图分类号:

TP319

基金项目:


A Hybrid Lexical features Model for Abstractive Summarization
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    在使用sequence-to-sequence(seq2seq)网络结构生成文本时,有时无法使模型捕捉原文重点内容。原因之一是由于模型中原始的输入序列过长,会使模型在学习过程中,丢失一些重要词汇特征信息。为解决该问题,本文提出了一个以seq2seq和attention为基础的模型框架,其中编码器端是由双向LSTM组成,上下文向量由编码器的输出和卷积神经网络提取的词汇特征向量构成,词汇特征又包含n-gram和词性特征信息,最后使用单向LSTM解码上下文向量从而生成。该模型主要是使用卷积神经网络控制词汇信息,通过与其它模型相比表明,该模型是有效的。

    Abstract:

    When using sequence-to-sequence (seq2seq) network structure to generate abstract text, sometimes we can''t get the model to capture the main points of the original text. One of the reasons is that the original input sequence in the network is too long, which will make the model lose some important lexical feature information in the process of learning. In order to solve this problem, this paper proposes a model framework based on seq2seq and attention, in which the encoder is composed of bi-directional GRU and the context vector is composed of the output of encoder and the word feature vector extracted by convolution neural network. The lexical features also contain n-gram and part of speech feature information. Finally, unidirectional GRU is used to decode the context vector to generate the abstract. The model mainly uses convolutional neural network to control lexical information. Compared with other models, the model is effective.

    参考文献
    相似文献
    引证文献
引用本文
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2018-10-14
  • 最后修改日期:2018-12-05
  • 录用日期:2023-09-08
  • 在线发布日期:
  • 出版日期:
文章二维码