论文部分内容阅读
随着人工智能领域的发展,深度学习网络被广泛纳入各种人工智能集成解决方案。随着深度学习网络深度越来越深,学习网络也变得越来越复杂和冗余,如何最大的利用现有硬件来高效运用神经网络已经成为了现在深度学习热点研究问题。GPU因为其多流处理单元模块的特性在多任务并行处理方面相比CPU有优势,虽然这种优势往往建立在其庞大的运算单元和储存单元之上。而在嵌入式设备中往往对运算单元和储存单元的开销有所限制,尤其是像DRAM这种能耗开销较大的储存单元,故本论文在相应内存以及计算方面的开销做了相应的优化操研究。运用剪枝和量化操作使深度神经网络的在嵌入式设备中内存能需求大大减少,本课题的改进如下:本论文设计了动态剪枝算法,基于传统算法无法对整个网络剪枝掉的连接的重要性做评估,引入了在训练过程中对已被剪掉的网络做恢复的步骤。分别在再训练的过程中对网络做剪枝工作和补充精度的恢复处理,并引入概率因子保证对整个的网络的恢复操作在训练过程中保持合适的比例。算法在经典的卷积神经网络Lenet-5中取得了38.4倍的压缩效果,在深度较深的Alexnet网络当中也取得了12.7倍的压缩效果。本论文设计了量化算法,基于传统聚类算法聚类中心会随着训练而发生改变的特点,对整个网络量化过程的量化中心固定,并引入了概率因子对权值进行量化,使在再训练过程中权值会根据量化值的大小而进行误差积累,提高了量化效率。在训练过程中根据量化领域的研究对整个训练进行分组操作,使整体收敛的效果得到了增强。在试验中以在整体上0.12%的误差代价的取得了在Alexnet网络上达到了31倍的量化效果,在Lenet-5取得了330倍的量化效果,相比2016年deep compression中的27倍的压缩率有着明显的效果提升。本论文的研究在卷积神经网络能耗要求较高的应用场景有着较大的理论应用价值。本论文的改进算法对芯片设计中DRAM需求较高的场合有着很好的应用效果,能够极大的深度学习算法的能耗开销。对于机器视觉领域研究,诸如人脸识别领域、图像捕捉、光源检测等场合有着很大的实际运用前景。