论文部分内容阅读
作为机器学习系统的原材料,特征对于最终模型的影响毋庸置疑。机器学习算法的性能在很大程度上取决于特征表达的选择,当数据能够被很好的表达为特征时,即便使用简单的模型也可达到满意的精度。故在实际应用机器学习算法时,很重要的一个步骤是怎样预处理数据来得到一个好的特征表达。在图像处理领域,原始像素值作为初级的特征表达通常维度很高,需要采用合适的方法对图像高维特征进行处理,得到更加简洁而有效的特征表达。数据降维作为一个研究热点问题,它的关键思想是把高维数据有效地在低维空间中表示,发现高维数据的内在结构,从而找到一个好的、有效的低维特征表达。低维特征保留了原始高维数据里的重要信息,同时可以使后续的处理变得更加容易。在图像处理领域中,这是一个备受关注的方向,具有重大的理论意义和实际价值。深度学习框架和非监督学习方法近年来越来越流行,吸引了很多机器学习和人工智能领域研究者们的兴趣。最近的研究结果也证明了深度学习方法确实能够取得非常好的结果,无论是在图像、语音或是自然语言处理领域。虽然深度学习方法取得了很好的结果,被广泛应用,但实际上它有点像是一个“黑箱子”,没有非常充分并且严格的理论体系来支撑,我们不知道为什么它可以取得这样好的结果。基于以上,本文从深度学习中的“构造模块”入手,主要研究自编码器的表达能力,重点为自编码器在数据降维方面的能力以及自编码器表达能力的稳定性。具体研究内容如下:第一,在深度学习方向,人们往往是通过采用越来越深的模型和越来越复杂的非监督学习算法,来取得进步。本文从深度学习方法的“构造模块”入手,也就是单层的自编码器(AE)和单层的限制玻尔兹曼机(RBM)。这两种方法都可以作为表达转换的方法,学到一个原始数据的新的表达,而当限制第二层的节点数小于第一层的节点数时,又可以同时达到对原始高维数据降维的效果。本文期望能够从深度学习的基础方法入手,来更好地理解深度学习。第二,作为线性降维方法的代表,主成分分析法(PCA)是一个简单而又被广泛应用的方法,同时,自编码器和限制玻尔兹曼机也可以看作相对较新的非线性降维方法。本文试图更好地理解单层自编码器和单层限制玻尔兹曼机。由于这两种方法大体思路是一致的,主要在训练过程不同,在实验部分,我们着重在自编码器的部分,探究单层自编码器的表达能力,与主成分分析法做比较。第三,本文重点探究了对于视觉特征的理解,自编码器是否是一个好的表达转换途径。我们评估了单层自编码器分别基于原始像素和基于局部描述子的降维作用及表达能力的稳定性,与传统方法主成分分析法进行比较。在基于原始像素的部分,我们在MNIST数据集上实现了两种表达转换和一个softmax分类器,探究算法性能如何随着转换得到的新的表达维数的变化而变化,通过算法的性能来评估单层自编码器基于原始像素的降维作用及表达能力的稳定性。在基于局部描述子的部分,我们通过SIFT匹配结果来评估单层自编码器基于局部描述子——SIFT描述子的降维作用及表达能力的稳定性。基于原始像素和基于局部描述子的实验都验证了单层自编码器的降维作用,要优于主成分分析法,以及单层自编码器表达能力的稳定性,同时也验证了提出的基于自编码器的转换策略的有效性。我们实际上尝试了一些其他的方式来评估AE的表达能力,也讨论了自编码器的一些变种想要取得更好的性能,但是没有成功。这也许表明,单层自编码器和简单的非线性变换不具备足够的能力来把高维数据很好地建模,这也是为什么我们现在使用深度模型。最后,我们对论文的工作做出了总结,并指出了下一步的研究方向。