基于深度学习的低信噪比LoRa信号识别研究

来源 :西北大学 | 被引量 : 0次 | 上传用户:caohuyue
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
近年来,随着物联网应用的快速发展以及市场需求的增大,传统的物联网无线通信技术如Wi-Fi、蓝牙、Zig Bee等已经无法满足大规模应用部署的要求。物联网低功耗广域网LPWAN(Low-power Wide-Area Network,LPWAN)技术的出现使得大规模远距离物联网应用的实现成为可能。作为LPWAN中最为成熟的一种通信技术,LoRa以其低功耗远距离的特点,迅速成为学术界和工业界的研究热点,而且已经被广泛地应用在智慧城市、智慧农场、物流追踪等场景中。由于LoRa网络覆盖范围大、节点通信距离远,所以LoRa信号的传输环境更加复杂多变。当环境中的噪声过大而对信号产生严重干扰时,网关难以正确检测及解调信道中的LoRa信号,导致通信质量下降。虽然LoRa可通过自适应速率机制ADR(Adaptive Date Rate,ADR)增大发送节点扩频因子实现数据的可靠传输,但是扩频因子的增大会增加传输延时以及节点能耗,且ADR机制并不适用于网络环境多变的情况。因此针对低信噪比环境下网关难以识别LoRa信号而导致网络通信质量差的问题,本文分别对低延迟网络和容迟网络两种场景下的LoRa信号识别问题进行了研究。本文的研究内容包括:(1)低延迟网络中的LoRa信号识别:针对LoRa网关在低信噪比条件下难以检测到LoRa信号这一挑战,本文提出了一种基于信号互相关性的LoRa信号检测方法,在-20d B信噪比时能准确检测到LoRa信号。在此基础上,针对低延迟的需求,设计了一种基于深度学习的低信噪比LoRa信号识别模型LT-CNN。与LoRa中通过增大扩频因子的方法相比,LT-CNN在-20d B信噪比环境下的节点能耗降低约30%,传输延迟减少约7.8s,包接收率是现有方法的2.8倍。(2)容迟网络中的LoRa信号识别:针对一些延迟容忍但识别率要求高的需求,本文利用基于分数阶傅里叶变换的滤波算法对低信噪比LoRa信号进行预处理,并设计了一种高精度的低信噪比LoRa信号识别模型Fr-CNN。与LoRa中通过增大扩频因子的方法相比,Fr-CNN在-20d B信噪比环境下节点能耗降低约40%,包接收率是现有方法的3.6倍。
其他文献
研究背景:肾细胞癌(Renal cell carcinoma,RCC)是最常见的泌尿生殖系统肿瘤之一,在美国男性肿瘤中位居第七。肾细胞癌是泌尿生殖系统所有恶性肿瘤中发病率和死亡率最高的。肾
自主可控是信息安全乃至国家安全的重要保障。随着国家自主可控战略的不断推进,涌现了一大批国产化的软硬件技术,如申威处理器、龙芯处理器、深度操作系统、麒麟操作系统和UO
众包模式是一种外向型的开放式创新,是公司或组织从外部组织获得现有资源的一种方式。众包平台是一种典型的双边市场,众包任务设计以及众包平台激励机制都会对众包参与效果产
长沙五一广场东汉简牍中所蕴含的经济信息较为丰富,其中涉及到物价、市场、航运以及民众日常经济活动等重要信息。从当地的物价信息来看,出现了较为丰富的商品种类,大致分为
目标跟踪算法是人工智能和计算机视觉研究领域的重要组成部分,广泛应用于智能监控等系统中,在生产生活和实际工程中都有很重要的研究价值。本文学习和总结了当前几种主流的目标跟踪算法,并且深入研究了基于压缩感知的目标跟踪算法,针对该算法在外界光照变化和目标局部遮挡时易出现跟踪漂移等情况,提出了相应的改进算法。文章首先详细介绍了压缩感知理论,并且应用该理论对信号重构进行了实验仿真。然后说明了压缩跟踪算法的理论
随着工厂智能制造模式兴起,移动机器人在人类社会的多个领域开始扮演着重要角色,尤其在工业领域有着重要的应用需求。因此,对自主移动机器人技术的研究具有广泛的应用前景,而
随着智能家居的市场规模的不断扩张以及自然语言处理技术的快速发展,自然语言处理技术的研究价值以及在智能家居领域的应用前景开始飞速上升。为了更好的研究和应用自然语言
人类视觉系统的注意力机制使人类选择性地关注图片中信息量最大、最具特征的部分,而不是整个场景。通过计算机学习人类的这种视觉机制,被称为图像显著性目标检测。传统的方法
图像在获取、传输、存储的过程中容易受到噪声的干扰。噪声图像的存在是非常普遍的。噪声图像不仅影响视觉体验,而且对数字图像处理技术有较大的影响。本文以显著性检测为例,
21世纪以来,随着互联网技术的快速发展和多媒体技术的日趋成熟,网络视频点播日受欢迎。但是随着网络的发展,特别是在数据流量方面的日益增长,传统的视频点播存在视频画面不清晰、跳帧、连续性差等一系列用户体验不良好的问题,除了网络带宽低、拓扑结构复杂、视频数据冷门等原因外,产生这些问题的关键是基于TCP/IP的通信模式为基础架构的互联网存在严重资源浪费的问题,即当前的互联网上发生了大量的重复(冗余)传输。