摘要:在使用sequence-to-sequence(seq2seq)网络结构生成文本时,有时无法使模型捕捉原文重点内容。原因之一是由于模型中原始的输入序列过长,会使模型在学习过程中,丢失一些重要词汇特征信息。为解决该问题,本文提出了一个以seq2seq和attention为基础的模型框架,其中编码器端是由双向LSTM组成,上下文向量由编码器的输出和卷积神经网络提取的词汇特征向量构成,词汇特征又包含n-gram和词性特征信息,最后使用单向LSTM解码上下文向量从而生成。该模型主要是使用卷积神经网络控制词汇信息,通过与其它模型相比表明,该模型是有效的。