论文部分内容阅读
从大规模、多维度的信息数据中提取其蕴含的信息是信息数据技术时代所面临的热点问题。其中,张量分解和重构是针对大规模体数据进行数据分析和信息提取的有效方法。在张量分解过程中,基于主成分分析的思想有效保留和增强了信息数据中主要的特征;在张量重构中,利用多尺度的思想可以快速地重构出不同尺度的信息数据,支撑不同尺度的数据分析。但张量分解的计算复杂度比较高,实际应用对计算效率有较高的要求。本文针对张量分解的计算效率问题,开展基于图像处理器(Graphics Processing Unit,GPU)的张量分解和重构方法的研究。针对基于GPU的张量分解和重构问题,本文从GPU的性能模型和基于GPU的Tucker分解和重构两个方面开展研究工作。主要内容和贡献如下:1.提出了GPU性能分析模型。针对GPU程序的性能评估的问题,一种量化的性能分析模型能够预测应用移植到GPU的性能和评估瓶颈,帮助理解GPU编程模型和性能优化。基于此,本文提出了GPU性能分析模型,不仅考虑了GPU执行时带来的额外开销,还从指令流水线的角度,通过对线程的计算指令和访存指令建模,来定量分析程序和理解程序性能特征。通过仿真分析,本文提出的模型能够以较高的准确率预测出GPU程序的性能;2.提出了基于GPU的Tucker分解及重构算法。针对Tucker分解及重构算法计算复杂度过高的问题,本文提出了基于GPU的张量分解及重构并行化算法。通过对算法进行性能剖析,将算法中最耗时的一系列张量与矩阵的乘法进行基于GPU的并行化改造,并且以中间结果复用的方式优化CPU-GPU间的数据传输开销,加速Tucker分解及重构。通过仿真测试,本文提出的方法实现了几倍至数十倍的加速比;3.实现了基于GPU张量分解及重构的大规模三维地震数据可视化应用。针对现有可视化方法中存在只能提供特定分辨率的问题,提出了基于连续多分辨率的可视化方法,并且将张量分解及重构的并行化研究成果应用在可视化系统中。综上所述,GPU性能分析模型帮助理解GPU编程模型和性能优化,提出并实现的基于GPU的张量分解和重构能够提高大规模三维地震数据可视化中的计算效率。