微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

大数据Spark实时处理--数据采集构建日志服务器

  • 数据产生和上报流程
  • 1)客户端定时采集----->数据加密----->数据传至日志服务器上----->数据解密----->日志落地磁盘
  • 2)可以考虑数据压缩

 

  • 基于IDEA+Maven构建多Module本地开发环境
  • 1)多Module带来的好处:GitHub - apache/spark: Apache Spark - A unified analytics engine for large-scale data processing
  • 发现每个子工程下面都有一个pom.xml
  • 单独将一个完整的项目,拆成不同的模块,这样在开发的过程中可以各司其职
  • 比如说,A是开发某一个子模块的,A只用开发自己的部分,B只要将A的依赖加进去,就可以协作开发了。
  • 2)多Module项目构建
  • 打开IDEA
  • 选择Maven
  • Project SDK:1.8 version 1.8.0_152
  • 不选 Create from archetype
  • 点击next
  • Groupid:com.imooc,bigdata
  • Artifactld:spark
  • Version:1.0
  • 点击next
  • project name:spark
  • project location:C:\Users\jieqiong\IdeaProjects\spark-train-v1
  • module name:spark
  • project format:.idea(directory based)
  • 点击 finish

 

 

 

  • 基于Spring Boot构建日志服务

 

 

  • 日志上报全流程本地测试

 

  • 日志上报全流程服务器测试

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐