论文部分内容阅读
随着数据化社会的到来,深度学习模型被广泛地研究,并涌现了一批有影响力的模型。由于超参和神经元的数目是百万级别,所以这些模型的复杂度很高。另外,当训练数据集增大时,模型需要消耗更多的计算资源。GPGPU具有强大的并行计算能力,大大减少深度学习模型的训练时间。但GPU通用计算的性能提升与模型有关,这方面鲜有人研究。本文侧重于GPGPU下深度学习模型的性能分析。