摘要:針對傳統(tǒng)詞向量在自動(dòng)文本摘要過程中因無法對多義詞進(jìn)行有效表征而降低文本摘要準(zhǔn)確度和可讀性的問題,提出一種基于BERT(Bidirectional Encoder Representations from Transformers)的自動(dòng)文本摘要模型構(gòu)建方法。該方法引入BERT預(yù)訓(xùn)練語言模型用于增強(qiáng)詞向量的語義表示,將生成的詞向量輸入Seq2Seq模型中進(jìn)行訓(xùn)練并形成自動(dòng)文本摘要模型,實(shí)現(xiàn)對文本摘要的快速生成。實(shí)驗(yàn)結(jié)果表明,該模型在Gigaword數(shù)據(jù)集上能有效地提高生成摘要的準(zhǔn)確率和可讀性,可用于文本摘要自動(dòng)生成任務(wù)。
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社