基于LSTM RNNLM的N-best重打分算法.doc基于LSTM RNNLM的N-best重打分算法
李华屈丹范正光张文林
信息工程大学
X
关注成功!
加关注后您将方便地在我的关注中得到本文献的被引频次变化的通知!
新浪微博
腾讯微博
人人网
开心网
豆瓣网
网易微博
摘 要:
首先采用长短时记忆单元替换递归神经网络隐含层中的神经元, 避免梯度消失问题。其次将LSTM RNNLM应用在二次解码过程中。在语音解码时, 递归神经网络语言模型使Lattice的扩展次数过多, 导致搜索空间太大而影响搜索速度, 因此Lattice不适宜引入高级语言模型进行重打分。相比之下, N-best的线性结构更适合引入包含长距离信息的模型, 因此采用N-best进行LSTM RNNLM重打分, 并对识别结果进行重排序。最后在Penn Treebank语料库和WSJ语料库上分别进行困惑度和连续语音识别实验。实验表明该方法有效降低语言模型的困惑度, 提高连续语音识别系统的性能。
关键词:
LSTM; 递归神经网络; 语言模型; N-best重打分;
作者简介:李华(1990-) , 女, 硕士生, 主要研究方向为智能信息处理。
收稿日期:2016-04-29
基金:国家自然科学基金资助项目(61175017, 61403415)
N-Best Rescoring Algorithm Based on Long Short-Term Memory Recurrent work Language Model
LI Hua QU Dan FAN Zhengguang ZHANG Wenlin
Information Engineering University;
Abstract:
Firstly, the neurons in the hidden layer of the recurrent work are replaced by long short-term memory units to avoid gradient , we use LSTM RNNLM in two-pass decoding stage, Lattice is not suitable for rescoring of recurrent work language model which expands the lattice too many times, leading to searching efficiency reduction with a blowing up search the contrary, N-best algorithm with linear structure is more fitting for models using long distance , the paper adopts N-best algorithm for LSTM RNNLM experimental results show that the proposed method can not only effectively reduce language model perplexity, but also improve the performance of continuous speech recognition.
Keyword:
LSTM; recurrent work; language model; N-best rescoring;
Received: 2016-04-29
在统计语言模型中, N-gram模型是应用最为广泛的一种语言模型。N-gram模型基于马尔科夫假设, 即假设当前词的出现概率仅仅依赖于其前面的连续n-1个词, 根据这n-1个历史词来预测第n个词。N-gram模型具有建模方法简单, 识别效果好等优点, 但也存在着一定的缺陷, 如数据稀疏问题。此外, 在大规模语料库上, 随着模型阶数n的增大, 模型参数呈指数级增长, 严重影响了语言模型的性能。
针对N-gram模型中存在的问题, 文献[1]首先提出利用前馈神经网络(feed forward work, FFNN) 建立语言模型的方法, 利用词的分布式表达(distributed Representation) 将词法和词义相近的词聚集在一起, 解决了数据稀疏对统计建模的影响, 基于这种紧凑的词表示使得预测更加准确。神经网络具有自主学习特征的能力, 能够从输入特征中提取到更加抽象的特征, 成功地应用在
基于LSTM RNNLM的N-best重打分算法 来自淘豆网m.daumloan.com转载请标明出处.