论文部分内容阅读
近些年来,深度学习作为机器学习的一种新的形式,它使计算机能够从经验中学习并根据概念层次来理解世界。作为一种崭新的人工神经网络方法,卷积神经网络(CNN)使神经元之间可以权值共享来减少样本的训练参数使分类的泛化能力和精确度更进一步的提高。因此CNN在图像识别领域成功得到了广泛的推广和应用。目前,实现CNN的主要方式通常是基于通用处理器的,但这种基于软件的方式并不能让CNN的并行性得到充分挖掘,并且使应用在实时性、灵活性和功耗等方面的需求都不能得到满足。除此之外,由于任何一个CNN模型都无法对所有数据集进行最佳泛化,因此在将CNN应用于新数据集之前,必须先选择一组适当的超参数。为新数据集选择新的模型可能是一个耗时且繁琐的任务。被调整的超参数的数量以及每个新的超参数集合的评估时间使得它们在CNN模型中的优化尤其困难。本项目采用一个由Xilinx(赛灵思)公司推出的一个支持软硬件协同设计的SoC产品ZYNQ平台,ZYNQ开发能让我们既获益ARM丰富的生态系统资源,又可以获益于FPGA的灵活性和可扩展性。本论文详细介绍了ZYNQ平台的开发模式和卷积神经网络的基础上,设计出CNN硬件加速器,并研究出一种基于改进贝叶斯优化算法的CNN超参数优化方法。该方法使用改进的汤普森采样方法作为采集函数,利用改进的马尔可夫链蒙特卡洛算法加速训练高斯代理模型。该方法可以在超参数空间不同的CNN框架下进行超参数优化。利用CIFAR-10、MRBI和SVHN测试集对算法进行性能测试,实验结果表明,改进后的CNN超参数优化算法比同类超参数优化算法具有更好的性能。最后将CNN硬件加速器和CNN超参数优化算法融合进软硬件协同系统,进行试验验证,与PC端的卷积神经网络相比,基于ZYNQ平台的CNN具有更好的性能。从而展现出基于ZYNQ平台的卷积神经网络的图像识别技术在并行性方面的优势和更广阔的应用前景,因此对本课题执以研究与应用具有很重要的学术价值和应用价值。