面向大数据处理的数据中心资源调度关键技术研究

来源 :国防科技大学 | 被引量 : 0次 | 上传用户:hongxingdehong
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
数据中心为大数据存储和大数据处理提供了硬件基础。在数据中心内部,多台计算节点通过高速网络互联为分布式计算系统,并广泛用于大数据处理等应用。近年来,面向大数据处理的数据并行计算平台(如Hadoop和Spark等)受到了来自于学术界和工业界的广泛关注。大数据处理平台的调度技术会直接影响大数据处理作业的执行效率。本文从数据中心用户和数据中心管理者的需求出发,围绕大数据处理作业的资源分配和作业调度,研究以下问题:针对大数据处理作业的网络流协同调度问题、由于分配过量计算资源而延长作业完成时间问题、面向大数据处理的计算集群的系统吞吐量受限问题。论文的主要工作和创新成果包括以下方面:针对大数据处理作业网络流协同调度的问题,研究了数据并行计算过程中网络流传输的依赖性,提出了紧急度感知的大数据处理作业的协同调度方法。该方法通过分析大数据处理作业的执行流程图,将存在依赖关系的计算阶段和网络流抽象为新的调度对象,称为“分支”。在大数据处理作业的执行流程图中,利用依赖和同步等结构特点来计算每个分支的调度紧急度。根据紧急度,设立相应的优先级的队列来调度网络流的传输请求,从而完成网络流和作业的协同调度。与已有的方法相比,该方法有效地利用作业的依赖和同步等结构特点来协同调度网络流和作业,并解决了传统网络流调度方法和传统作业调度方法中的不一致问题。该方法从应用层面来调度网络流,不需要特殊的网卡、交换机等硬件支持。实验表明,该方法能够有效地减少作业平均完成时间,尤其是对依赖和同步等结构特点明显的大数据处理作业性能提升更明显。针对大数据处理作业分配过量资源而导致作业完成时间延长的问题,研究了大数据处理作业的作业完成时间随着计算资源参数而变化的趋势,提出了大数据处理作业的计算资源参数调优方法。计算资源参数设置过高,可能会增加网络通信等计算集群内部的开销,可能会延长大数据处理作业的完成时间。该方法的基本思路是通过预测大数据处理作业的执行时间来确定近似最佳的计算资源参数。大数据处理的计算平台会使用并行计算的算子(如Map和Reduce等)来处理大数据文件;因此,算子执行所产生的时间开销最终成为大数据处理作业的执行时间。受此启发,采用了深度学习模型来对大数据处理作业的执行流程图建模,学习算子对作业完成时间的影响,并用于预测作业完成时间。和已有的预测模型相比,基于深度学习的预测模型可以实现更好的预测精度。为了训练预测模型,进一步研究并解决了训练预测模型时遇到的样本稀缺问题。由于样本作业的执行时间很长,采集样本会产生巨大的采样开销。为了采集大数据处理作业的样本,设计了自适应调整采样步长的采样方法。该采样方法优先采集近似最优分配的作业样本,从而减少样本采集的时间。此外,从不同大数据应用采集的样本存在分布差异,这不满足机器学习中独立同分布的条件;因此,采集自不同应用类型的样本不能被用于训练同一个预测模型。针对该问题,设计了采用基于深度迁移学习的训练方法。通过调整样本的分布差异,该方法使得不同应用类型的样本可以被用来训练同一个预测模型,缓解了样本稀缺的压力。针对大数据处理平台的系统吞吐量受限的问题,研究了现有调度策略的局限性,总结出作业完成时间和系统吞吐量之间的关系,提出了吞吐量优化的作业调度方法。该方法的基本思路是以一种高“密度”的方式将特定的作业打包起来,以便提高并行作业的执行速度。该方法可以根据作业的资源使用情况和作业的完成时间来计算吞吐量最大化的调度决策,从而减小作业完成时间,增加系统的吞吐量。在基于谷歌集群数据的实验中,进一步观察到被打包在一起的作业在完成时间上存在较大的差异,这会影响单位时间内完成的作业数量。为此,设计了一种作业完成时间对齐的方法来减小这种差异,该方法可以进一步提升系统吞吐量。和现有的打包调度方法、最短作业优先策略相比,该启发式的作业调度方法有效提升了系统吞吐量。
其他文献
目标微动是对目标或目标部件的微小运动状态的精细描述,微动特性细微而多变,需要敏锐地捕捉和识别。雷达目标微动特征研究是近十多年来国内外遥感学术界和工程界的一个研究热点,运用微多普勒信息进行目标分类、鉴别和识别被认为是极具潜力的技术手段。本文系统研究了雷达目标微动特征提取与参数估计技术,阐述其回波调制及特征分析,深入研究了基于时频分析和基于时频原子的两大类微动参数估计方法,并针对多分量微多普勒信号分解
学位
本文以霍尔推力器在深空探测等长周期空间任务中的应用为背景,针对霍尔推力器中等离子体与放电通道和内磁极的相互作用等问题,采用理论分析、光学诊断为主,辅以数值仿真的方法,开展霍尔推力器中交叉电场和磁场环境下等离子体与放电通道和内磁极相互作用的机理研究。设计了一台放电功率600 W的传统磁场位形霍尔推力器USHT-600,建立了一套完整的霍尔推力器实验测试系统,并实现了推力器稳定运行。磁场有限元三维数值
学位
图像分类是计算机视觉领域最基础的研究之一,在医疗图像分析、智能视频监控、无人车辆驾驶、个人信息管理等诸多领域具有广泛应用。过去八年中,深度学习研究取得显著进展,图像分类技术突飞猛进,可控条件下的图像分类问题已经基本趋于成熟,然而在很多实际应用中,由于受不确定的外界因素和成本因素的影响,很难获得大量包含丰富变化并且标记完整的训练数据,图像分类依然是一个很有挑战性的问题。本文针对非受控条件下机器学习面
学位
地球系统中的各个分量之间具有紧密的相互作用,其中大气和海洋是两个最重要也最活跃的分量系统。随着海气耦合模式在天气气候研究中的广泛应用,人们对海气耦合资料同化的需求随之兴起。基于耦合模式框架,耦合资料同化可将多个分量中的观测信息吸收到耦合系统中,并允许观测信息在不同分量间进行传递和交换,因而理论上能够为耦合模式提供更加平衡和协调的耦合状态估计。耦合资料同化一般可分为弱耦合同化和强耦合同化,其中弱耦合
学位
波达方向(Direction of Arrival,DOA)估计是阵列信号处理领域的核心问题之一,在雷达、导航、数字通信、目标检测等领域都有着广泛而重要的应用。均匀线性阵列拥有规则化的阵列结构,与其匹配的DOA估计算法得到了广泛的研究,并形成了相对成熟的技术。但阵列孔径与阵列自由度受限于实际阵元的数量。基于均匀线性阵列的DOA估计算法需要通过增加实际阵元数量来提升阵列自由度,并提高精度和分辨率。近
学位
随着信息技术,尤其是传感器网络与物联网等技术的飞速发展,各类复杂系统的数据呈海量性增长,从这些数据中挖掘与系统相关的规律与模式,对于理解、分析、运用与改造复杂系统具有至关重要的作用。作为数据挖掘的基础性工作,相似性度量方法直接关系后续数据挖掘任务的实现,一直是数据挖掘研究的热点与难点。属性网络作为有效的复杂系统建模工具,其相似性度量方法主要考虑节点在整个网络中的拓扑结构特征,往往忽略了节点自身的非
学位
混合模糊测试是一种新近提出的软件漏洞挖掘技术,由黑盒模糊测试和白盒符号执行两种方法结合,很快成为软件安全领域的研究热点。混合符号执行作为其中的重要技术之一,具有求解精确、指向性强、资源消耗巨大等特点。由于真实软件系统庞大复杂,基于二进制的混合符号执行依然存在可伸缩性(scalability)问题,导致混合模糊测试效率低下,不能实用。传统的混合模糊测试提升技术多聚焦于利用多种动静态分析手段辅助模糊测
学位
移动通信的演进升级得益于系统关键性能指标的全方位倍增,加强对移动通信的性能增强研究对于加速生产生活数字化转型、促进经济发展、引领军事变革具有十分重要的意义。调制方式是决定通信系统传输性能的关键因素。空间调制技术作为一种新型的数字调制技术,突破将信息调制到电磁波的幅度、频率、相位的传统思路,以天线的激活状态作为调制手段,可实现更加高效可靠的数据传输。然而传统空间调制技术面临天线激活状态检测准确度低、
学位
在大数据时代,为了解决多源数据相互冲突问题,真值发现已广泛应用于群智感知、健康医疗、众包、知识库构建等多个场景中。但是在真值发现过程中,数据源以及真值发现平台都面临着隐私泄露威胁。具体来说,数据源向真值发现平台提交的数据通常包含了数据源的健康状况、行动轨迹、个人习惯等敏感信息;与此同时,真值发现平台通过估算获得的数据源可靠性信息可能会反映出数据源的性别、年龄、专业、受教育程度等个人属性特征;此外,
学位
物理不可克隆函数(PUF)是一种新型的物理安全原语。类似于人类的生物识别技术,它能对不同的物理实体产生不可克隆、不可篡改和不可预测的固有特定响应。PUF与传统的基于密钥的密码系统不同,它不需要在设备上存储私密信息,而是利用物理实体在制造过程中不可控的纳米级工艺偏差来产生私密信息。与传统基于密钥的硬件安全原语相比,PUF具有更高的安全性和更小的硬件开销,从而使其适用于资源有限的嵌入式系统。PUF的安
学位