论文部分内容阅读
RNN(Recurrent Neural Network)语言模型的计算复杂度高,成为RNN语言模型实际应用中的一个瓶颈。对此,提出一种基于RNN语言模型的定点化方案,该方案将RNN的浮点数(float)矩阵运算转化为定点化计算。通过采用SIMD(Single Instruction Multiple Data)指令集,将占比最大的矩阵相乘的计算量减小为原来的1/2甚至1/4。实验结果表明,在不影响识别效果前提下,优化算法提高了语言模型的运算效率。