论文部分内容阅读
在地震数据处理方面,对数据的实时性要求较高,而且随着地震检测台站的不断增多,地震数据的容量也在不断增加。针对这些特点结合大数据技术,提出一种基于Spark Streaming技术的地震数据流式处理算法。将原始地震数据经过清洗再由数据分发器Kafka传输至Spark大数据计算框架,使用Spark核心api-Spark Streaming进行流式计算,将计算结果实时存入数据库,最后在进行数据实时可视化。