LSM--tree的合并操作优化技术研究

来源 :中国科学技术大学 | 被引量 : 0次 | 上传用户:lengyue982
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
其他文献
学位
学位
学位
学位
学位
人工智能、5G技术的日益成熟,催生出了诸如虚拟现实(VR)、增强现实(AR)、自动驾驶和云游戏等新型应用。在原有的云计算模型中,远离用户的云服务器很难满足这些新型应用所需的低延迟,高算力要求。而边缘计算通过将服务器部署到离用户更近的网络边缘侧,大大降低了用户设备访问服务器的延迟,提升了用户体验。本文针对边缘计算场景中,单个边缘服务器资源有限且异构,不同服务器算力差距大,边缘服务器之间网络环境复杂,
学位
近年来,随着互联网技术的普及和快速发展,人们能够通过网络获取大量的标注数据,大数据和人工智能技术也因此在很多领域得到了质的飞跃,如图像识别,语音识别等。然而目前的主流的图像识别和分类算法都是基于深度神经网络架构,都依赖于大量的标注数据,在面临数据匮乏的场景时,往往不能有预期的表现。因此基于小数据集的研究,即少样本学习,也显得十分重要。为了解决这一问题,本文以图像分类任务为载体,研究了半监督小样本特
学位
强化学习是一种机器学习方法,被公认为是实现通用人工智能的关键技术之一。随着现实应用场景中的问题越来越复杂,高效强化学习算法的研究越来越受到关注。一方面,为解决复杂问题,强化学习方法常采用深度神经网络作为策略和价值函数的表示,由此产生非凸和非光滑的优化问题,使得梯度强化学习方法容易陷入局部最优解中,而无梯度强化学习方法虽能避免该问题,但当问题维度较高时,其样本利用率极低。因此,如何提高无梯度强化学习
学位
近年来,随着深度学习技术的飞速发展和广泛应用,神经网络模型的深度随之增加,其计算量和访存量也不断增加,这给计算机硬件设计和软件优化带来了巨大的挑战。卷积神经网络是深度学习领域的代表性算法之一,在卷积神经网络中,卷积运算是计算和访存密集型运算,卷积层占整个卷积神经网络计算时间的90%以上,因此优化卷积运算对加速深度学习算法的运行是至关重要的。由于移动设备同时受到算力和功耗的限制,许多轻量级的网络应运
学位
近年来,人工神经网络技术被广泛应用于图像、语音、视频处理等领域,并且取得了很大的成功,是当前学术界的研究热点。卷积神经网络为了解决更加复杂抽象的问题,追求更高的识别准确度,网络模型的规模和层数在不断增大,计算复杂度和计算量也随之增加,这在通用计算平台上部署加速时存在严峻的性能和能效问题。基于FPGA的神经网络加速器能充分利用CNNs算法并行性,是一种高效的解决方案,但以往静态重构设计方法存在资源利
学位